Un continuo acostumbramiento a la falta de certidumbre. Unas notas sobre la modernidad

Una idea muy tradicional es que la modernidad, al menos en términos filosóficos, se inicia con Descartes. Como buena parte de las ideas tradicionales resulta muy discutible, y sin embargo hay elementos relevantes que hacen que la afirmación tenga sentido. La idea se fundamenta en el Discurso del Método y en la idea de la duda metódica.

Este escepticismo basal y universal sería una de las señales que diferenciaría a la modernidad como época. Muchas veces se ha señalado que la duda metódica es el inicio de la posición cartesiana, y que Descartes la usa para fundamentar lo que sería, ahora, la verdad certera. Anteriormente estábamos equivocados (siguiendo a Aristóteles y la escolástica), pero ahora tenemos un nuevo método para asegurarnos la verdad.

El punto de inicio es, entonces, la crisis que los nuevos desarrollos científicos producen en el conocimiento medieval. Una crisis que es mucho más allá de una resistencia a una nueva idea y abandono de la anterior. No existía, por decirlo de manera burda, el modelo mental del mundo que permitía pensar como posible y adecuado lo que para nosotros es sentido común: El conocimiento avanza y por ello a veces es necesario abandonar las teorías anteriores. La idea de avance de conocimiento previa es una en que se agregan elementos, no se eliminan. Bajo los esquemas mentales usuales no había espacio para pensar que lo que se daba por cierto puede dejar de serlo.

La primera reacción a lo anterior fue, entonces, producir una nueva certeza. La antigua certeza estaba equivocada, y por lo tanto en realidad no tenía ningún valor (uno puede leer a varios autores de la época para percatarse del desprecio al aristotelismo que estaba en juego en la época en varios, el Leviatán de Hobbes presenta múltiples ejemplos). En algún sentido, en el posterior desarrollo de la física newtoniana se puede observar una recepción de ese estilo: ahora, finalmente, hemos adquirido el conocimiento verdadero que no puede ser perdido. Sin embargo, en general, la propuesta de la nueva certeza fracasó. En vez de la esperada suplantación de una vieja certeza (ahora error) por una nueva, lo que se dio fue un debate entre varias posiciones (Jonathan Israel en Radical Enlightenment presenta las disputas entre 1650 y 1750 en detalle).

Es importante enfatizar la razón por la cual la reacción inicial a la pérdida de certeza fue la búsqueda de una nueva: El hecho que el canon de lo que consistía conocimiento correcto no se modificó y seguía siendo el del conocimiento cierto e inmodificable. Sin certeza no hay nada, todo vale lo mismo; y dado que es invivible estar en el ‘todo da lo mismo’ (como todos los críticos al escepticismo radical han mencionado durante toda la existencia de esa posición), entonces sólo quedaba buscar una nueva certeza.

Ahora bien, en la práctica los debates continuaron y no se generó certeza común. Cada nueva posición que intentaba buscar un nuevo piso firme, indudable y eterno, al conocimiento simplemente se agregaron al conjunto de posiciones en disputa. A pesar de lo infructuoso del asunto, el intento de buscar una nueva certeza fue duradero. Kant escribe al final del siglo XVIII todavía bajo el molde que ahora su propuesta finalmente producirá un nuevo conocimiento cierto y válido por siempre (al final de la Crítica de la Razón Pura se pueden encontrar varias afirmaciones de este tenor).

Frente a ello lo que se desarrolló a lo largo del tiempo fue una pérdida de la idea que sólo el conocimiento cierto vale como conocimiento. Para decirlo de otra forma: Que si no hay conocimiento cierto, eso no afecta nada. Sin certezas sigue teniendo sentido declarar ciertas creencias como de mayor valor que otras. Es de hecho la posición del escepticismo antiguo (Sexto Empírico siendo un caso claro de ello).

En el mundo moderno es probablemente David Hume el primero (o al menos, uno de los primeros que hizo esa posición conocida) en tener esa actitud. Después de eliminar en sus razonamientos todas las fuentes de certeza (la causalidad, para usar una de sus tesis más conocidas, es sólo un hábito de pensamiento), lo que hace es no obtener las consecuencias usualmente pensadas: Que entonces no hay razón para dar algo como más válido que otra afirmación. En la medida que hay que vivir eso no lo hacemos, y esa consecuencia es irrelevante. Nadie debe esperar a tener certeza para dar algo por válido, y para los usos normales con eso basta.

Esa actitud es la que, finalmente, se ha expandido con la modernidad. No creemos que nuestras ideas sean válidas por siempre (la actividad científica se entiende como una que entrega buen conocimiento sin entregar certeza total; y ni siquiera usamos la meta-posición en la cual la certeza pasa de las creencias a los métodos); pero de ahí no concluimos que todo sea mera opinión. No creemos que sea necesaria la certeza para poder generar conocimiento. Es en este sentido que la frase del título de esta entrada ha de entenderse: nos acostumbramos a vivir sin conocimiento fundado de tal manera que ya no estimamos que se requiera fundamento para generar conocimiento.

Es un acostumbramiento lento porque, como hemos visto, del primer momento (en el cual caen las viejas certezas) al momento actual (en el cual la certeza ya no es necesaria) pasaron siglos. Es un acostumbramiento lento porque, a decir verdad, si bien se aplica al campo del conocimiento, no lo aplicamos en otras esferas. En el mundo ético sigue siendo común la posición bajo la cual sólo la moral sólidamente fundamentada es válida. En lo que se refiere a la estética, donde no estimamos que exista certeza alguna, obtenemos por lo general la posición escéptica: no hay gustos mejores que otros.

El camino de pensar en un mundo sin certezas, pero sin que ello genere las consecuencias que en la tradición se piensa tiene dicha ausencia, es un camino que seguimos recorriendo. Y eso la modernidad.

 

La crisis de la sociedad abierta. Una hipótesis sobre tendencias de cambio desde los 1980’s y la situación actual

La afirmación que las últimas décadas se han caracterizado por tendencias de mayor liberalización económica y social, una economía y sociedad más global y en genera por un ambiente relativamente refractario a la regulación y a la planificación y a la participación del Estado en general concita relativo consenso. El nombre que se le puede dar a ello son variados y discutibles. Neo-liberal creo que es lo más adecuado: en su conjunto son tendencias a liberalización, y dado que este no es el primer momento de liberalización social y económica (eso corresponde al siglo XIX) y esto ocurre tras un período de mayor peso del Estado, el prefijo neo- aparece correcto. Sin embargo, como esa palabra se usa de múltiples formas, y ha perdido significado, mejor buscar otra. Recordando el viejo texto de Popper lo nombraremos, entonces, como tendencia a una sociedad más abierta.

Si bien el grado en que esas tendencias han marcado las últimas décadas es algo en discusión (y no faltan las voces que recuerdan que en varias de las economías más ‘liberalizadas’ hay presencia importante del Estado, o de cómo la globalización de los mercados y la caída de barreras ha ido aparejada muchas veces de regulación) en líneas generales es claro un cambio comparado con la situación de los ’50 o ’60. La situación de las socialdemocracias del mundo es, en cualquier caso, una señal clara: Un programa socialdemócrata moderado de esa época parecería ahora más bien radical. Ello debiera ser suficiente para mostrar la magnitud del cambio.

Los primeros programas de esta nueva época nacen en los ’70. Sin embargo, mi impresión es que resulta mucho más clave lo que sucede con Mitterand en Francia. Elegido en 1981, siendo la primera vez que la izquierda ganaba una elección presidencial en Francia, y bajo la esperanza de poder realizar, finalmente, los cambios deseados. Y sin embargo, el gobierno se vio obligado a retroceder: la reacción negativa de los mercados financieros volvió inviable el programa. El momento en que un gobierno de izquierda no pudo realizar su programa y se sintió obligado a plegarse a las tendencias mencionadas es el momento en que se puede decir que dichas tendencias de liberalización estaban ya completamente instaladas. Por las siguientes décadas, en general en todos los países se avanzó en esa línea.

Lo anterior no quiere decir que no existieran diferencias. Es posible diferenciar en este movimiento hacia una sociedad más abierta un ala derecha y una ala izquierda. Mientras el ala derecha enfatizaba menor regulación, menos impuestos, menos barreras comerciales; el ala izquierda enfatizaba mayor diversidad, menor discriminación. Las líneas no eran iguales pero el movimiento basal era común y, en cierto sentido, coherente y compatible. No estará de más recordar que, por ejemplo, son las grandes compañías globales las que ‘más avanzadas’ están -en comparación con pequeñas empresas- en lo relativo a combatir la discriminación.

Ahora bien, desde la crisis del 2008 se aprecian grietas en estas tendencias. O si se quiere: varias preocupaciones que habían estado escondidas previamente porque, con todo, había una imagen de lo que era viable, resurgen. Pensemos en la desigualdad. El que estas tendencias habían aumentado la desigualdad (o, para dar una preocupación paralela, todas las discusiones sobre ganadores o perdedores de la globalización) era sabido de antemano, y las tendencias en sí ya llevaban tiempo; pero no parecían ser preocupaciones muy fuertes. A partir de la crisis es que esos temas adquieren relevancia pública. Es ahí donde emerge el hecho que parte importante de las clases medias (y de las clases trabajadores) de los viejos centros desarrollados (Europa y Estados Unidos) se encuentre ante una crisis, o que quede más claro la ausencia de perspectivas, la sensación que los años futuros no serán mejores, y bien puede ser peores, que los presentes. Antes de la crisis esos mismos grupos podían pensar, todavía, en su futuro de manera relativamente positiva, pero después -al parecer- ya no pueden.

Una vez que estos grupos se piensan a sí como perdedores de las tendencias de las últimas décadas, la reacción usual es compararse contra quienes han sido los ganadores, y en particular contra las elites. Aquí queda recuperar a Bourdieu, porque el discurso de izquierda en particular es aquí donde se pierde. Con élite la izquierda piensa en los grandes empresarios y hubiera esperado entonces que la crisis de la globalización liberal debiera implicar una mirada negativa hacia el ‘1%’ -lo cual, por cierto sí sucedió, el hecho es que no es lo único que sucedió. Sin embargo, bien podemos recordar que el viejo modelo de Bourdieu siempre distinguió entre los dominantes dominantes y los dominantes dominados: hay dos élites (una económica y una cultural), y una por cierto es más poderosa que la otra, pero desde la perspectiva del resto de la población ambas son élites.

Luego, para grupos que se ven a sí mismos no sólo con desventaja, sino perdiendo lo que antes habían tenido, el rechazo a la élite es algo relevante. Pero ¿cuál élite? La élite cultural bien puede ser para ellos doblemente sospechosa -en tanto es élite y en tanto no se percibe en ellos ninguna razón para ser élite: Su capital cultural no tiene legitimidad para ellos. Del otro lado, bien pueden reconocer en la élite económica razones para que sean élite -y que les permiten a ellos identificarse de alguna manera (‘personas de trabajo’, no habría que olvidar que parte de estos grupos son lo que antes llamábamos pequeña burguesía). Luego, que la reacción contra la élite se centre en lo que puede pensarse como una falsa élite (la élite cultural, que suele ser de izquierda en el mundo occidental en los últimos siglos) es una alternativa relevante.

Por otro lado, tenemos los grupos tradicionalmente discriminados  (mujeres, migrantes, no-blancos, minorías sexuales etc.). Estos segmentos, en general, han experimentado una mejoría en su situación: Ahora parece completamente insuficiente en, por ejemplo, derechos de LGBT, aspectos que 30 o 40 años atrás eran percibidos como revolucionarios. Las décadas de la globalización liberal han sido beneficiosas para estos grupos. Más en general, con ello ha venido todo un paradigma en que la discriminación aparece como uno de los principales males. Como ya dijimos, esta ha sido una de las banderas que la izquierda ha tomado en las últimas décadas -no teniendo mucho que decir en el plano social y económico más que banderas de retaguardia (defender lo construido por los Estados de bienestar previos) he aquí donde tenía una mirada de un buen futuro, adecuado para la izquierda, y compatible con una sociedad cada día más abierta. En todo caso es importante recordar lo que se dijo antes sobre el efecto de la globalización liberal. Puesto que, entonces, cabe perfectamente que estos grupos una vez que ya no se sientan discriminados (lo que no ha ocurrido, puesto que -avances y todo- la discriminación sigue existiendo) abandonen esa alianza con la izquierda y se sientan a gusto (al menos sus respectivas élites) con lo que permite el mundo de la globalización liberal.

Entonces tenemos una (a) clase media y trabajadores en los países centrales que se sienten cada día en peor situación, que rechazan a lo que consideran élite, y que tiene un particular rechazo por la élite cultural (de izquierda), y (b) grupos tradicionalmente discriminados que han tenido una mejoría de su situación en las últimas décadas y que se sienten más alineados con esa élite cultural. No voy a entrar en prognosis que dependen de examinar fuerzas relativas y que, finalmente, olvidan la posibilidad de emergencia de nuevas alternativas y posibilidades de recombinación. Sólo hace notar que la tendencia bajo (a) es, de hecho, similar a las razones por las cuales las pequeñas burguesías europeas abrazaron el fascismo y similares en los ’30. La tendencia de (b) es más bien nueva -al menos en su extensión y desarrollo-, pero hay algo que sí es recurrente: La consecuencia que esto aumenta la sensación de pérdida de poder de los grupos medios es algo que también había pasado en los ’30: El temor a la ‘ideología de género’ es análogo, en ese sentido, el temor al del ‘bolchevismo’.

Lo que sí se puede decir es que la configuración que permitió durante varias décadas darle solidez a una tendencia de mayor liberalización / globalización / apertura de la sociedad (la combinación de una derecha liberal económica y de una izquierda liberal cultural) ya no existe más: lo que era combinable, lo que era alas de un mismo movimiento, ha dejado de ser. Y ello es, entonces, la crisis de las sociedades abiertas.

La Racionalidad de la Acción Racional. Un artículo

Racionalidad_accion_racionalLa Revista Central de Sociología publicó un artículo de mi autoría sobre el tema permanente de la acción racional. En el artículo se presentan las diversas posiciones que ha tenido el debate de las últimas décadas. Tras un resurgimiento del rational choice (pensemos en Gary Becker), la posición se ha visto bastante discutida. Ese debate y la pregunta subyacente de por qué la racionalidad aparece como central para comprender la acción es lo que intenta analizar el artículo.

Clasificamos ese debate en cuatro posiciones: La primera -la más extendida pero creo que, finalmente la menos relevante teóricamente, es la racionalidad limitada. Se analiza la racionalidad usando el mismo modelo tradicional, sólo que ahora encontramos que no da cuenta de la conducta. Una segunda es de hecho la defensa del modelo de acción racional pero depurándolo de manera radical, uso a Gintis como ejemplo de una visión en que la racionalidad es sólo creencias coherentes con ajuste bayesiano. La tercera es una ampliación de la idea de racionalidad (Habermas y Boudon creo que son los autores principales): es la idea de racionalidad que hay detrás de la idea tradicional la que es incorrecta, o más bien parcial. Hay más racionalidad que la reconocida en el rational choice. La cuarta alternativa es quizás la más radical: ¿y a que viene esto de preocuparse por la racionalidad para analizar la acción? ¿No es esa pregunta más bien limitante de la comprensión de la acción?

Más allá de esas exploraciones hay un hecho a explicar: ¿Por qué la pregunta por la acción racional? ¿Por qué ese modelo resulta atractivo para intentar explicar la acción? Las últimas páginas intentan dar una hipótesis para explicar ello. El punto de partida es el siguiente:

el modelo de acción racional estándar es una tecnología para la acción: el intento no es tanto describir un mundo, como construir un mundo (p 26)

Un modelo que reemplaza lo multivocal de la acción, que ella opera a través de múltiples criterios que no se reducen a una sola cosa (desde la subjetividad del actor). Esa complejidad es la que el modelo quiere evitar, para traducir toda elección a algo sencillo. Reduciendo todos los criterios a uno sólo, haciendo todo equivalente a través del medio de la ‘utilidad’ entonces la elección es algo ‘trivial’: Elija aquello que le da mayor utilidad esperada.

Ahora bien, esto explica además algo que es común en las discusiones. Muchas veces el modelo se presenta como algo amplio (‘el actor racional no es necesariamente egoísta’, es cosa de incluir dentro de la función de utilidad la utilidad de otros actores). Se critica así a los críticos como gente simplista. Pero en la práctica de análisis, al generar modelos concretos, se vuelve a un modelo restringido (en el cual el actor es normalmente egoísta). ¿Por qué? Porque sólo el modelo limitado puede efectivamente ‘trivializar’ esa elección y simplificar operativamente la acción.

Ahora, ¿en que condiciones se requiere o resulta adecuado realizar dicha simplificación? Si se usa un argumento común en los defensores del rational choice (incluso la conducta animal es analizable de ese modo) es sencillo encontrar esas condiciones:

Pues bien, en el caso de la biología lo que permite lo anterior es precisamente a) lo unívoco del criterio de fitness: es simplemente el éxito reproductivo, y b) la prohibición de trayectorias fuera de ese criterio: las características que no se reproducen, desaparecen. Esas dos condiciones estructurales son las que permiten la emergencia de conductas que son, efectivamente, analizables desde el prisma de la acción racional (p 27-8)

Si esas dos son las condiciones, entonces el estado social en que ellas aparecen es claro: Es en el capitalismo donde ocurre tanto un criterio unívoco (maximizar ganancia) y la ‘prohibición’ de quienes se salen de ella (de empresas que no se guían por ello). La hipótesis es contrastable: Dado que esas condiciones varían en su intensidad (no es lo mismo una gran empresa que una empresa familiar en torno a la importancia de maximizar ganancia) se puede evaluar si esa variación afecta el nivel de búsqueda de esa racionalidad. Digo búsqueda porque, al final, si bien el actor le gustaría un mundo controlable y previsible donde la acción racional fuera ‘trivial’, el mundo real no lo es.

Entonces:

El capitalismo promueve la existencia de un criterio basal de acción racional que no por nada es conocido como bottom line para las decisiones, y la emergencia de espacios donde ese criterio basal funda la dinámica del conjunto. Ello explica la relevancia del rational choice como forma de pensar para, y como tecnología de la acción en, las sociedades contemporáneas (p 28)

El artículo disponible en este link.

La moral moderna es correcta, las éticas modernas están equivocadas

Aprovecharé en esta entrada la diferencia casi escolar entre moral y ética. La primera siendo el conjunto de normas y valores al uso, y la segunda siendo la reflexión y la búsqueda de fundamentación. Luego, la tesis de esta entrada es sencilla: las intuiciones morales de la modernidad son buenas intuiciones morales, pero la reflexión ética de la modernidad (al menos en su mainstream) es un completo desastre. Intentemos defender la idea.

1. La Corrección de la intuición moral moderna, o de la adecuación de un sentido común ‘liberal’

¿Cuál es la principal intuición moral de la modernidad? La idea de cada quién debiera vivir su vida como mejor le parezca, con la menor coerción posible. Dominar es una mala palabra para la sensibilidad moderna, mientras que las personas exploren y desplieguen su ser es, prima facie, algo bueno. El sentido común básico de la modernidad tiene un talante liberal innegable. Por cierto, ello es un talante -ese sentido común no es un esquema coherente, ni tampoco es equivalente a una teoría liberal como tal, ni la única intuición de dichas sociedades; y sin embargo es una sensibilidad común. Una preferencia por la capacidad de elegir, por la de crear nuevas posibilidades (una apertura al mundo en ese sentido) y un rechazo a la violencia como lo que impide esos despliegues.

Habrá que partir mencionando que estas intuiciones no son las únicas existentes en las sociedades modernas, pero creo que sí son las intuiciones que tienen en tanto ser modernas (y no sólo en tanto ser además tanta otra cosa más). La moral existente en las sociedades modernas no se reduce a esa intuición -también valoramos cosas que no provienen de ella: la búsqueda de la excelencia, por ejemplo, es algo que valoramos, y bastante, pero no es parte de esa intuición, pero no es particularmente moderna; tampoco lo es la valoración negativa de la crueldad por ejemplo (el rechazo a la coerción no es sólo porque ella sea cruel); ni tampoco la aceptación universal de la idea de dignidad de las personas (que le debemos al cristianismo al fin y al cabo, los clásicos poco sabían de ello).

Y, por cierto, por más que sean parte de nuestro sentido común, no son universales: Hay múltiples contextos en los cuales la voluntad de dominar a otro por la violencia fue valorado -todas las culturas que han enfatizado la gloria militar de la conquista (¿como explicarle a Alejandro, a César, a Trajano, que sus conquistas no necesariamente serían vistas como positivas, como muestra de su virtud?) han tenido precisamente otra idea.

En cualquier caso, lo que nos queda es defender que son correctas. Podría dejarlas, dado que son parte de nuestro sentido común, sin fundamentar -quienes vivimos en esas sociedades difícilmente podemos negarlas de manera completa. Al mismo tiempo, cualquier fundamentación hecha por quien vive en un contexto donde ellas se aceptan tanto resultará limitada. Realicemos el intento.

Por un lado, todos los intentos de negar esa intuición, de no creer que, tanto como se pueda, dejar a cada quien que viva como quiera, han resultado horribles. Los europeos, al final, tuvieron que aceptar la tolerancia religiosa (que cada quien crea como pueda), porque los intentos de negar dicha tolerancia llevaron a casi quebrar su civilización. En sociedades que estructuralmente son diversas, ese talante liberal resulta imprescindible. La aceptación de la diversidad no es sólo un tema estructural: Cuando aceptamos que no sabemos la verdad, que somos falibles, no queda entonces más que reconocer que no podemos determinar cual es la mejor manera de vivir, incluso si creemos tener en claro como nos gustaría vivir: Cuál sea la mejor forma de alcanzarla no es algo que sea evidente. Dado ello. entonces aceptar la diversidad -que coercionar a otro es negativo- y aceptar la capacidad de creación y exploración propia -que buscar en un mundo que es abierto- resultan imprescindibles. Otra cosa sería negarse a sí.

2. El error de la ética moderna: La ética del deber y el utilitarismo como aberraciones.

Pasemos ahora a la segunda parte de la tesis: Que las teorías éticas de la modernidad son un error. En general, simplificando bastante pero al mismo tiempo no estando demasiado equivocado, uno puede establecer que son dos las principales teorías éticas en la modernidad: La ética del deber (siendo Kant la figura recurrente) y diversas formas de utilitarismo.

La palabra de aberrante referida a la ética kantiana puede resultar exagerado. ¿Que podría tener de aberrante la formulación de tratar al otro como fin y no como medio? (tratar a las personas como medios no deja de ser un buena síntesis de lo que es el mal, a decir verdad). Algunos de los puntos más problemáticos de la formulación de Kant (su defensa que es bueno no mentir incluso si decir la verdad lleva a la muerte de alguien) pueden ser culpados a la forma específica con la cual Kant usa sus principios más que a sus principios. Sea todo ello verdad, la ética del deber kantiana sigue siendo profundamente equivocada.

Tres son los problemas fundamentales. El primero es que no deja de ser una ética profundamente egoísta. Lo único que importa es el carácter ético de la acción desde la perspectiva de quien realiza la acción, y lo que suceda con otros es irrelevante. Y toda ética que olvida que se es persona entre personas, y por lo tanto no da relevancia ética a los otros, no puede ser una ética razonable para seres humanos. Lo segundo es que, por todo lo que menciona de la dignidad humana, al final los seres humanos son profundamente indignos en esta ética -toda la dignidad está en la ley. Prácticamente el único motivo ético en Kant (todo otro motivo es problemático) es el sentido de la vergüenza e indignidad que cada quien siente frente a la ley. Lo cual a alguno quizás le parezca adecuado (el sentido de humanidad caída tras el pecado original afecta la sensibilidad en ambientes donde el cristianismo es relevante), pero pensemos -de nuevo- desde la perspectiva de lo que implica hacia otros: Esa falta de dignidad también se aplica a los otros, y es ahí entonces donde los problemas de esa perspectiva se aprecian (¿cómo se relaciona, en el fondo, con sus congéneres quien piensa así?). Lo cual nos lleva al tercer punto: es una ética inhumana. En la Crítica de la Razón Práctica, Kant plantea que alguien que le gusta realizar buenas acciones, que se siente bien cuando hace el bien, es menos virtuoso que quien las realiza sin sentimiento alguno, y sólo porque son la ley. Lo que para Aristóteles (y en general, para el sentido común) es un elemento central del buen carácter -sentirse bien al hacer el bien- se transforma en algo impuro, casi sucio. Lo meramente humano, natural, es -entonces-algo negativo, pero sin esa base, ¿qué sentido tiene una ética?

La otra gran ética moderna es el utilitarismo. El utilitarismo es algo más que la idea que lo bueno es lo que nos hace bien (para decirlo de manera muy burda). Esa idea es mucho más antigua que el utilitarismo. La diferencia entre ese talante general y el utilitarismo como doctrina son dos elementos. El primero es que el utilitarismo es ‘racionalista’, en el sentido de buscar y exigir un cálculo, que la mera idea original no tiene: El actor se comporta moralmente cuando calcula todas las consecuencias y las sopesa, la mera acción irreflexiva puede ser (ya sea por suerte o por el argumento que todo lo que subsiste ha de ser compatible con buenas consecuencias) moral, pero lo es de manera contingente. El segundo es que el utilitarismo es una doctrina de la evaluación de cada acción, su pregunta no es por el buen carácter del agente sino por el carácter moral de cada acción. Es el fundamento de buena parte de las paradojas éticas que a esa tradición le interesa preguntar.

Ahora bien, la doctrina que cada acción adquiere su carácter moral sólo por el cálculo de las consecuencias que siguen de ella merece, sin más, el epíteto de aborrecible. Una consecuencia de ella es que la única razón por la cual no sea moral matar a alguien (a mí, a usted lector, a cualquiera que camine por la calle), por la cual no sea un deber hacerlo, es porque tiene malas consecuencias. Y ello es un simple albur del mundo. Sucede que, por lo general, se puede plantear que no es cierto que matar a alguien tenga buenas consecuencias; pero en un mundo ‘perfecto’ donde sólo viven personas que siguen el utilitarismo, cada quien está a un sólo error de cálculo que su asesinato sea una buena acción. En última instancia, el utilitarismo universaliza la noción de medio, y transforma a cada quien en un medio. Y ello es, finalmente, suficiente para el calificativo antes mencionado.

Luego, las dos principales éticas de la modernidad resultan completamente insuficientes. Ahora bien, no siendo toda la ética (toda la reflexión sobre las bases de la moral) equivalente a esas dos, no resulta tan problemático. Yo tiendo a creer que las éticas de la eudaimonía y de la felicidad resultan bastantes mejores guías. En última instancia, es posible tener -como la modernidad- una moral adecuada teniendo teorías éticas sin sentido alguno, por lo cual quizás no representa demasiado problema el no contar con una buena ética.

 

La relación entre filosofía y sociología. Unas notas a propósito de un coloquio en la UDP

Durante esta última semana de Noviembre, el núcleo de Teoría Social de la UDP organizó un coloquio llamado ‘Entre filosofía y sociología’. Pude ir a la sesión inicial, la vida impidió que fuera al resto, lo cual bastó para que emergieran algunas reflexiones que he decidido poner aquí

1. ¿Cuál es el sentido de preocuparse de la filosofía desde la sociología?

Al final de la exposición de Pablo Guiñez pregunté sobre la utilidad que para una disciplina empírica (o al menos, que algunas veces pretende serlo) de la crítica filosófica. Al fin y al cabo, algo puede estar muy mal fundamentado o pensado filosóficamente y de todas formas tener alguna utilidad. La respuesta siguió la línea que eso era correcto, lo central era la relación contraria: Que cuando un sociólogo intenta filosofar, usualmente hace mala filosofía y no aporta nada. En otras palabras, la conminación era a no filosofar.

No dejaba de ser curioso en un coloquio que precisamente discutía por los espacios entre disciplinas un llamado a no cruzarlas. Sin embargo, pensando después creo que, si uno se ubica en la sociología, y se pregunta desde ahí, entonces el tema no es si cuando filosofamos hacemos mala filosofía, sino si preocupándonos de asuntos filosóficos sirve para hacer buena sociología.

Sabido es que los grandes cambios experimentados en la física a principios del siglo XX llevaron a buena parte de quienes estaban desarrollando las nuevas ideas a preocuparse de la filosofía. La idea de Chernilo que, al final, las preguntas sociológicas básicas son filosóficas no aplica sólo a nuestras disciplinas. Y uno pudiera decir que en las discusiones de Bohr, Heisenberg, Schrödinger y Einstein sobre el carácter de la teoría cuántica, se jugaban varios temas filosóficos (sobre la naturaleza del conocimiento y sobre el carácter de la realidad). Lo central es que en esas discusiones, si bien pueden haber sido mala filosofía (digamos, que en ellas se cometieran varios errores para esa disciplina) indudablemente aportaron a un mejor conocimiento de la física -hay varios resultados en teoría cuántica (el teorema de Bell es el que tengo en mente ahora) que provienen de ella.

Lo mismo podría ocurrir en nuestra disciplina: Que las discusiones filosóficas a las cuales lleva nuestro quehacer de cuando en cuando (Bourdieu criticando a Kant en La Distinción), o de las cuales se toma nuestra disciplina (por ejemplo, hay una larga tradición de uso del segundo Wittgenstein), pueden ser útiles para generar conocimiento -aun cuando en términos filosóficos tengan grandes deficiencias. Como crítica a la Crítica del Juicio, La Distinción no se sostiene, al menos eso estimo después de leer los textos; pero si esa mala crítica sirvió para desarrollar La Distinción, que es uno de los textos fundamentales de la sociología del último medio siglo, bueno, creo que salimos ganando en el intercambio.

2. De la asimetría entre descripción y evaluación

Chernilo, en su presentación inicial, defendió la idea de descripciones normativas. Citando a Arendt que (en algunos casos de manera más clara que otras) hay elementos cuya descripción requiere -si se quiere tener una buena descripción- el uso de elementos normativos. Describir Auschwitz sin mencionar que es un infierno es una forma de no decir la verdad al respecto. En particular, Chernilo mantuvo que era importante recordar que si la descripción y la evaluación son distintos, ellas están en relación -no tiene sentido mantener barreras impermeables entre ellas. Posición con la cual me encuentro básicamente de acuerdo.

Ahora, para profundizar en esta idea de ‘no son lo mismo estando asociadas’, hice una pregunta en torno a una asimetría entre el paso de la descripción a la evaluación con respecto al paso de la evaluación a la descripción, y estimo que no fui muy claro en el coloquio. Aprovechando que escribir las cosas permite expresarlas de manera más precisa y es, al menos, una segunda oportunidad, re-expresemos la asimetría.

La inferencia ‘esto existe, por ende esto es bueno’ ha sido defendida por diversas teorías éticas. No es, por cierto, algo universal, pero si bastante común. Siempre que se basa el argumento ético en la naturaleza de las cosas (ya sea de forma inmediata o referida a una realidad más profunda que la inmediata) se está, finalmente, haciendo uso de una inferencia de ese estilo -o al menos, se la da por válida. Buena parte de las discusiones en torno a la relación entre descripciones y evaluaciones, la discusión sobre falacias naturalistas o la crítica a la idea de neutralidad, se centra en este tipo de inferencia.

Sin embargo, por el contrario la inferencia ‘esto es bueno, por ende existe’ no es defendida, prácticamente, por nadie. Incluso cuando se postula que lo bueno y lo real alguna relación tienen, la relación se hace desde la realidad. Que algo es bueno no nos bastaría para determinar si ello existe. Incluso si usamos la idea que vivimos bajo el mejor de los mundos posibles, eso sirve para realizar la inferencia que este mundo que existe es bueno (el mejor posible), pero no podríamos partir de si algo es bueno para saber si existe (porque podría no ser posible en ese mejor mundo).

La asimetría, creo, permite ver porque la descripción y la evaluación son distintos, estando relacionados. Es cierto que realizamos de manera continua inferencias normativas a partir de lo que existe. Por ejemplo, entre quienes comparten una creencia ética, es manifiestamente claro y válido a partir de la descripción de X extraer su evaluación (y si ese compartir es universal, entonces esa inferencia es válida para todos). Ello muestra, entonces, cómo aunque claramente están asociados, y es válido hacer transiciones, estamos ante dimensiones que son diferentes.

 

 

Como en todas las cosas, sería posible continuar con otros puntos, pero por ahora baste con ellos. EL primero, de manera directa, y el segundo vía ejemplo (dado que la naturaleza de las descripciones y evaluaciones es relevante para comprender la vida social, cuyos agentes hacen las dos cosas de manera rutinaria al fin y al cabo) muestran, de manera concreta, porque resulta útil preguntarse por la relación entre filosofía y sociología.

La Construcción del Conocimiento Sociológico

Portada_libroLa idea que la sociología no ha producido conocimiento de mucho valor es una idea con la que he rondado bastante tiempo. Así, en este mismo blog, declaraba el 2006 que “Puedo pensar en lo que ha aportado la antropología, incluso la vilipendiada economía, pero de sociología no mucho” (link aquí). Después de varias peripecias, finalmente el tema de la tesis de doctorado fue sobre si la sociología había valido la pena, no por nada el título es ‘3 investigaciones sobre la pertinencia intelectual de la Sociología’. Por cierto, esta imagen negativa de la sociología no deja de ser común al interior de la propia disciplina, y no es difícil encontrar entre sus cultores -en los principales textos teóricos y metodológicos- declaraciones más bien negativas sobre lo que la disciplina ha logrado.

Al desarrollar ese estudio en el doctorado, mi primera impresión es que si bien el autodiagnóstico era correcto al nivel del conocimiento teórico y metodológico general, era falso al nivel de la investigación empírica. Que en los campos que conocía relativamente bien (y en algunos otros que conocía más someramente) sí había construcción de un acervo de conocimiento. Quizás no tan rápido como en otras disciplinas, pero claramente nuestro conocimiento en, por ejemplo, sociología del consumo, es más profundo y más válido ahora que en décadas anteriores. El 2011 entonces pensaba que “El trabajo, entonces, es desarrollar una propuesta de saber general a partir de la práctica de investigación” (link aquí).

El caso es que con el transcurso de la investigación, al leer e intentar sistematizar, fui cambiando de opinión: Que, de hecho, sí se ha construido un acervo de conocimiento en la sociología al nivel de los conceptos básicos e ideas. La idea común que la construcción de un acervo común requiere la construcción de consenso no da cuenta de las dinámicas de una disciplina que es plural; pero era claro que -por ejemplo- en el debate había tal cosa como un movimiento relativamente racional de las posiciones, o donde se iban acumulando conceptos, distinciones y afirmaciones que tienen sentido. Se investiga mejor una vez que se ha desarrollado el concepto de habitus que sin él, se investiga mejor después de las críticas a ese concepto que sin él y así sucesivamente. La comparación entre los debates teóricos y metodológicos a su vez permitía observar una condición para que el debate plural efectivamente construyera conocimiento y no fuera simplemente un diálogo de sordos, eterna recurrencia de dimes y diretes: Que cada posición reconociera que la posición contraria no puede ser un puro error, sino que debe intentar dar cuenta de la intuición contraria al interior de su propia visión. Las perspectivas accionalistas, por ejemplo, incluso si son puramente accionalistas, saben que deben dar cuenta de la impresión de la fuerza de la estructura, no pueden remitirse solamente a criticar la otra postura. La existencia de una postura que intenta explícitamente integrar las posiciones es parte de lo anterior, pero lo importante es este reconocimiento sea amplio. Dado ese reconocimiento, entonces el debate plural puede efectivamente construir conocimiento común; y de hecho ocurre más en el debate teórico que en el metodológico -he ahí una de sus ventajas.

Ahora bien, ¿por qué es importante lo anterior? La sociología en la actualidad, creo, se encuentra ante desafíos relevantes. No es claro en la actualidad que lo que ella dice sea particularmente relevante para comprender la vida social, y otros saberes compiten con lo que ella plantea. Lo cual está bien. Ninguna tradición es eterna, y hay múltiples tradiciones disciplinas que han tenido su día y luego han desaparecido. No es para defender la sociología qua sociología que me interesa evaluar su construcción del conocimiento.

Es sólo que en la tradición sociológica hay algunas afirmaciones que me parecen, al mismo tiempo, fundamentales para entender la vida social y que no en todas las formas de analizar dicha vida se reconocen con fuerza. Ninguna de esas afirmaciones es exclusiva de la disciplina, y la tradición disciplinar incluye otras que han sido más bien obstáculos para el conocimiento; pero creo que el olvido completo de la sociología puede implicar el debilitamiento de esas afirmaciones.

¿Cuáles? Yo diría que el énfasis en el carácter construido de la vida social, en las consecuencias inesperadas de la acción, en el carácter plural de la vida social (que yo creo es la más basal de todas las afirmaciones sobre ella), y finalmente la coexistencia de perspectivas cuantitativas y cualitativas al interior de un mismo campo de estudios, son tanto válidas como presentes en la tradición. Y representan cosas que no debieran ser olvidadas. Si el examen de lo que la sociología ha realizado sirve para ello, entonces fue un buen trabajo.

En cualquier caso, el texto donde se defiende todo ello, publicado por la UFRO, disponible en este link.

¿Qué se dice cuando se habla del lugar en el cual se vive?

Captura_SignificadosUn pequeño texto producido sobre el tema de la significación del territorio (en el marco de lo que iba a ser el Informe de Desarrollo Humano 2016). Es una primera versión, que intento transformar en alguna cosa publicable en algún tiempo (así que no estaría de más recibir algún comentario de algún amable lector).

La introducción del texto:

El lugar en el cual se vive, el territorio vivido, es parte de la conversación entre las personas. Las opiniones y relación con el territorio, en parte, se expresan y se construyen en esa conversación. Luego, esa conversación permite examinar los criterios desde los cuales se evalúa el lugar y ahondar en el significado de lo que es éste. En este paper abordaremos, a partir de un análisis de material cualitativo de 16 grupos de discusión realizados durante finales del 2016 estas preguntas (el listado de grupos en anexo al final de este texto).

Los principales resultados, en relación a los dos puntos mencionados, diría que son dos. Primero, hay tres criterios de evaluación sobre lo que sucede en el lugar en que se vive: Uno económico (el territorio debe dar cómo vivir), el funcional (el territorio debe contar con servicios de educación, salud etc.) y experiencial (el territorio debe permitir vivir bien); criterios que entran en tensión y de los cuales se busca una forma de reunirlos en conjunto. Segundo, la estructura de significación asocia el lugar al pasado, a lo propio y a lo bueno: Lo bueno de lo mío que estamos perdiendo, y las conversaciones muestran que en eso se juega -finalmente- la vida. En última instancia, el significado basal del lugar en cual se habita es la vida.

Aquí el link.

Hora 11 del día 11 del mes 11. El día del Armisticio

100 años atrás se cerró la Primera Guerra Mundial. Sabido es su importancia, y no por nada el evento ha sido usado desde ese momento como el cierre de una época y el inicio de otra.

También es conocido que el nombre no está muy bien puesto. Muchos historiadores han pensado la Guerra de los Siete Años, por ejemplo, como el primer caso de ‘guerra mundial’ (con teatros de operación en Europa, América del Norte y la India por ejemplo). Y al menos desde que los ibéricos llegaron a América, muchos conflictos tenían largos alcances: Los Otomanos mientras peleaban contra los europeos en Europa recibían delegaciones de soberanos musulmanes en India e Indonesia que les pedían apoyo para resistir los embates de los portugueses. Por cierto, no el mismo conflicto, pero es claro que la visión de la política exterior se globalizaba.

Al fin y al cabo, en términos de teatros de operación la Primera Guerra Mundial es de hecho menos global que la Guerra de los Siete Años: Casi todos los frentes en Europa: Las colonias alemanas fueron prontamente tomadas, con la sola excepción del África Oriental Alemana, actual Tanzania, donde von Lettow-Vorbeck se las arregló para defender la colonia por años. El conflicto con el Imperio Otomano incluyó campañas en Mesopotamia, en Palestina y en el Cáucaso. Pero todas ellas relativamente menores. Es más bien en términos humanos que la ‘guerra’ es global. Producto de los imperios coloniales de la Entente, en los campos de Francia lucharon soldados de los cinco continentes. Eso es algo nuevo.

Pero a decir verdad, lo realmente nuevo es la guerra industrial total: Cuando todas las fuerzas de un país industrializado se dedican al esfuerzo militar, y con objetivos de derrota total del adversario. Todo ello es relativamente nuevo (en algunos sentidos la Guerra Civil de los Estados Unidos se acerca a estas características). La capacidad de unificar el esfuerzo nacional es nueva -la capacidad de reclutamiento, de dirección de la producción y etcétera, la división entre lo civil y lo militar que había sido una de las conquistas de la civilización europea previa empieza a desvanecerse. La capacidad industrial que se pone en juego, y que permite la conducción de operaciones militares de manera constante por meses, algo que era imposible previo a la revolución industrial. Y el carácter total, que el objetivo es la derrota total del enemigo sin límites, y sin preocupación mayor que lo que sucede después, también lo es. Los países europeos se habían dedicado en el período tras la Guerra de los 30 años de manera continua a la guerra, pero lo que les había permitido hacerlo sin destruir sin civilización era precisamente el reconocimiento de límites a la actividad bélica (lo que de hecho es común en situaciones permanentes de guerras entre peer polities).

De hecho, ese tipo de guerra es, hasta ahora, una anomalía. La única que siguió ese modelo fue la Segunda Guerra Mundial, y de hecho se puede considerar ambos conflictos como uno sólo -no es la primera ocasión en que se reúnen varios conflictos en un solo conjunto cuando se los piensa históricamente (la Guerra de los 100 años por ejemplo, o incluso la ya mencionada Guerra de los 30 años). Mirado de esa forma sólo ha existido una guerra total industrial. En parte, porque la capacidad de destrucción de ese tipo de guerra fue de nivel tal que su repetición se volvió inconcebible.

Lo cual nos lleva a lo último que quería mencionar hoy: el cambio en las actitudes sobre la guerra que implicó la Primera Guerra Mundial. Hay varias ideas que uno puede observar circulan en la actualidad que aparecen como sentido común sólo a partir de esta guerra. En particular, la idea que nadie que ha experimentado la guerra puede quererla. Así, por ejemplo, la idea que los líderes envían a otros a pelear sus guerras (porque nadie podría querer ir a ella), o que quienes han experimentado lo que implica una guerra no la buscarían de nuevo. Ambas ideas son incorrectas, en general en los conflictos previos a la Primera Guerra Mundial e incluso en ella. Las aristocracias europeas (y muchas otras, uso el ejemplo porque su aplicación es más directa al caso) durante siglos de manera recurrente participaron en conflictos y murieron en ellos -era parte esencial del rol que las permitía ser aristocracias, o en general de ser élites de un determinado estado. Lo mismo se puede decir de esas mismas élites en el mismo caso de la Primera Guerra Mundial.  Lo cual nos lleva a que participar en conflictos armados era experiencia común en las élites dirigentes europeas durante varios siglos y no por ello dejaban de participar en ellos. Y nuevamente, esto sigue siendo cierto en la Primera Guerra Mundial. Se ha hecho notar que en la Segunda, los dirigentes ingleses que estaban dispuestos a luchar contra el nazismo tenían experiencia militar (así lo ha hecho J. Lucaks, en su Five Days in London).

La experiencia de la guerra y la batalla siempre se puede decir ha sido cruel y horrible. La naturaleza de la guerra pre-industrial la convertía en algo que todavía estaba dentro del campo de lo humano. Su duración y sus características, sus miedos, pero también la exaltación del triunfo, todo ello estaba dentro del campo de la experiencia humana. Quienes la habían vivido no por ello pensaban que fuera sólo algo negativo, y podían pensar que valía la pena, o que la idea de gloria militar tenía pleno sentido.

Dulce et decorum est pro patria mori es una frase de Horacio que fue usada en un poema famoso de William Owen en 1917. Para Owen, en los campos de batalla de la Primera Guerra Mundial, la frase sólo podía ser mentira y falsedad. Y sin embargo, para las generaciones anteriores a esa experiencia la frase no les parecía tal falsedad, sino que podían reconocer su experiencia en dicha frase. La guerra industrial fue, precisamente, el paso de lo humano a lo inhumano.

 

NOTA FINAL.

Escribir sobre la Primera Guerra Mundial desde Chile, y en general desde América Latina, me obliga a cierto agradecimiento. Por las razones que fueran, nos libramos de toda esa locura y espanto. En mi familia, como en muchas en nuestros lares, no se cuentan muertos de la guerra ni hay rastros de trauma por la experiencia de la guerra -como es muy en común en familias en Europa y en América del Norte. Volviendo a lo que ya dije: No deja de ser algo a agradecer.

A 100 años de la ofensiva de los 100 días. El fin de la Primera Guerra Mundial

El 8 de Agosto de 1918 se inició la ofensiva de Amiens por el ejército británico. Mediante el uso combinado de infantería, tanques y aviación se produjo un avance de 11 kilómetros en un día infiriendo 30 mil bajas al ejército alemán,de los cuales 13 mil prisioneros (los datos exactos sacados de la siempre útil Wikipedia). Por los estándares de la Primera Guerra Mundial una victoria sin muchos precedentes, y el impacto en la moral alemana lo suficientemente agudo que Ludendorff, adjunto del jefe del estado mayor alemán y el verdadero comandante, lo declaró ‘el día negro del ejército alemán’. Es el inicio de lo que se ha denominado la ofensiva de los 100 días -una serie de ataques sucesivos por los ejércitos aliados que hace retroceder de manera continua a los alemanes, sin que estos puedan organizar una defensa adecuada. Hacia el fin del período, aunque los alemanes todavía se encuentran en territorio francés, la capacidad de una defensa organizada se encuentra en niveles mínimos.

¿Por qué es de interés recordar esta última ofensiva de la Primera Guerra? Un relato conocido (que ha sido ocupado en múltiples libros, películas o incluso series de televisión) es la de la Primera Guerra como un ejemplo de la estupidez (y falta de humanidad en relación con las tropas) del alto mando: Quienes de manera brutal y estúpida enviaban a sus tropas a la muerte. La alta tasa de bajas en la guerra de trincheras, el énfasis en la ofensiva sin tomar en cuenta el poder de la defensa, o -incluso- la demora en usar las bases doctrinales de la guerra de asedio en una situación operacional que así lo requería, son muestras de ello.

Ahora, a pesar de una cierta idea que tiene alguna circulación, la guerra es una de las actividades que más premia el aprendizaje. Simplemente el castigo de no aprender (y el premio de hacerlo) es demasiado grande. Las organizaciones militares pueden ser lentas en su aprendizaje entre guerras, pero suelen demostrar (al menos las exitosas) una alta capacidad de aprendizaje y adaptación en combate. La Primera Guerra Mundial se inicia con tropas peleando casi pensando en situación del siglo XIX; avances en campo abierto por infantería (muchas veces todavía con uniformes relativamente vistosos), con bajo uso de ametralladoras y otro material. En esas condiciones la tasa de bajas fue altísima (Hastings en 1914, el Año de la Catástrofe recuerda que varias de las batallas de las fronteras tienen el mayor número de bajas diarias de toda la guerra). El año termina con la implantación de la guerra de trincheras a nivel continental en todo el frente occidental.

Lo que no era claro para nadie en 1914 era como salir de esa situación. Eso fue algo que se requirió aprender. Y se intentó prácticamente de todo: Solucionar la trampa por medios estratégicos, Galípoli es el intento de ganar la guerra por otro frente, por ejemplo). O buscar diversos dispositivos tácticos, desde el uso de la artillería (cuanta y qué tipo de artillería se hacía necesaria para romper las defensas), hasta su coordinación con el avance de la infantería (desde la idea inicial de un bombardeo por semanas al creeping barrage inglés, con un fuego de artillería que avanzaba lentamente adelante de las tropas, al bombardeo intenso por sorpresa perfeccionado por los alemanes), o el invento de nuevas tácticas para la infantería en el ataque (el desarrollo de las tropas de asalto por parte de los alemanes). Pasando por el desarrollo de nuevos dispositivos técnicos: mejorías en la aviación (durante la guerra se inventa el combate aéreo y el apoyo aéreo a tierra), mejores armas para la infantería, y finalmente el desarrollo de los tanques. Todo eso hubo que ser creado, usado, mejorado a lo largo de todos esos años. Si uno recuerda que cuatro años es lo que una persona demora, por ejemplo, en estudiar una carrera universitaria; el nivel de aprendizaje que realizaron organizaciones militares de gran tamaño en cuatro años y medio no deja de ser impresionante.

En 1918 los aliados finalmente encuentran un modo de quebrar la guerra de trincheras, debido a su preponderancia material por una parte. Pero también al aprendizaje táctico: finalmente aprenden como, en las condiciones de la Primera Guerra, podían generar una ofensiva exitosa (como combinar la artillería, la infantería y las fuerzas acorazadas, junto al apoyo de la aviación, para generar un golpe importante). Y al aprendizaje de lo que los soviéticos llamaran posteriormente el campo operacional: Aprenden que, en el terreno en el cual combaten y con las capacidades que tienen, una ofensiva se agota pronto -resulta difícil sostener el ataque, dado que los refuerzos deben avanzar por un terreno que previamente ha sido casi destrozado, mientras que el enemigo puede transportar más fácilmente sus tropas. Entonces mas que insistir en el mismo eje de avance, lo que mejor funciona es sostener el ataque usando un nuevo eje. Es de esa forma que la defensa, finalmente, no puede sostenerse. Las nuevas operaciones son, de hecho, tan exitosas que en tres meses (desde el 8 de agosto al 11 de noviembre) la capacidad de resistencia alemana se desvanece. Por cierto, la incapacidad alemana para reconocer que habían sido completamente derrotados en esos meses es parte de lo que alimenta la búsqueda de revancha en la segunda guerra mundial (donde la claridad de la derrota fue, ya, demasiado evidente).

¿Por qué eso podría ser relevante? Un interés que va más allá de recordarnos algunos eventos de la Primera Guerra, evento que en sí mismo no deja de ser uno de los eventos con más consecuencias posteriores. El aprendizaje organizacional es un tema muy analizado; y reconocer que hay pocas instituciones humanas que aprendan tanto y tan rápido como una organización militar en combate no deja de ser interesante.

En varios modelos teóricos el proceso mediante el cual se aprende la respuesta óptima en una situación no se le da tanta importancia, a la larga los sujetos aprenden la conducta óptima y se ajustan al equilibrio. El caso es que, y la guerra es un caso evidente, el proceso de aprendizaje por parte de los agentes es relevante: Es algo complejo, muchas veces lo que se aprende no es lo correcto y se lleva a un callejón sin salida, en ocasiones estas dificultades hacen que el agente no alcance a llegar al equilibrio (es eliminado antes de llegar a esa situación, como fue el caso de varios países en la Gran Guerra), hay diversos caminos iniciales que pueden tomarse y explorarse (y uno puede comparar lo que fueron aprendiendo, y las tácticas y soluciones diversas que generaron, ingleses, franceses o alemanes). Todo esto genera una contingencia mucho más alta de lo que se destaca en varios modelos, donde sólo es cosa de descubrir una respuesta correcta al juego. Sabemos que los ejércitos aprendieron, pensarlo en términos de respuesta correctas es pensar el tema desde una perspectiva que no tiene sentido. Sólo un observador que conociera el juego completo podría determinar que es una respuesta realmente ‘correcta’, pero ese observador no existe.  Los mejores observadores reales (los ejércitos en 1918) no generaban respuestas en un juego conocido, sino que entre las cosas que tenían que hacer era descubrir las reglas del juego, y al conocerlas y crear estrategias, también cambiaban las reglas del juego. Un oficial inglés muerto en 1914 trasladado a 1918 no sólo tendría que modificar sus viejas reglas (que tipo de órdenes hay que dar) sino conocer algunas reglas que era imposible tuviera alguna idea en 1914 (como coordinar el ataque de sus tropas con armas que en 1918 no siquiera existían).

Lo que muestra estos procesos de aprendizaje en situaciones de altísima tensión es la complejidad y capacidad de innovación que van de la mano con aprender; y que los aprendizajes que se modelan como adaptación a un medio dado (como disminución sucesiva del error en torno al valor correcto) no son adecuados para pensar las situaciones donde el aprendizaje es más crítico.

Tres Investigaciones sobre la pertinencia intelectual de la Sociología

portada_tesisA todo esto me acabo de percatar que no había subido la tesis de doctorado, labor de tantos años finalmente, a este pobre sitio.  Asunto que resolveremos de inmediato entonces.

He aquí el link del repositorio oficial de la Universidad de Chile.

Y aquí el resumen:

En la presente tesis se presentan resultados de tres análisis en torno a la pertinencia intelectual de la sociología. En el primero de ellos, a partir del auto-diagnóstico negativo sobre una sociología estancada, se realiza una revisión de los debates teóricos y metodológicos, y de algunos campos de investigación específica. A partir de ello se concluye que (a) se puede considerar que la sociología, en contra de su auto-diagnóstico, acumula conocimiento, si se posee una concepción plural de esa construcción de acervo y que (b) existen elementos que cruzan la tradición sociológica que constituyen aportes específicos de dicha tradición al conocimiento de la vida social.

En el segundo de ellos se analiza a partir de un análisis de un caso empírico concreto, la situación de los trabajadores por cuenta propia en Chile, los problemas que genera para la investigación el plantear los debates generales como pura oposición. Plantear como es usual una simple oposición entre acción y estructura genera un esquema de observación que no da cuenta de la realidad de estos trabajadores: Pensarlos como emprendedores (dotados de agencia) o precarios (subyugados bajo una estructura) resulta insuficiente.

En el tercero de ellos se intenta generar un desarrollo teórico que permita renovar y fortalecer la tradición sociológica. La apuesta teórica básica es que si la vida social es una construcción generada en la interacción entre los actores, los procesos que la constituyen son universales al mismo tiempo que generan resultados históricos concretos. Entender la vida social como una vida construida pluralmente por actores finitos nos permite una mejor comprensión de ella.