Una Nota sobre el Concepto de Sociedad. La Sociedad es siempre Plural.

Los hábitos más triviales suelen ser muy informativos. Los sociólogos, pero no sólo nosotros, tendemos a hablar de la sociedad -como si fuera algo singular. Este hábito tiene consecuencias, o refleja esas consecuencias: Tendemos fácilmente a pensar en la sociedad (o en cualquier grupo en realidad) como si fuera un individuo.

Dos ilustraciones de esto.

La primera es en una entrada ¿Es la Sociedad real o una invención? del Blog Tribulaciones de la Clase Ociosa, porque muestra un argumento que es relativamente común.

Es por todo ello que la sociedad no es real en el sentido de externa y objetiva. Está abierta al conflicto, al cambio, a la renegociación, y precisamente porque esas luchas han sido distintas según los lugares, las identidades, culturas y países se han ido configurando de modo muy distinto a lo largo del tiempo y espacio.

El mundo social emerge de las interacciones entre personas. que forman un consenso intersubjetivo. Eso es parte de las personas. Aparte están las estructuras, que son lo que queda de las interacciones anteriores, que condicionan la forma en que podemos interactuar y entender el mundo.

La segunda es más general y dice relación con la argumentación de Margaret Archer. En ella tenemos que la vida social es dual, aunque las dimensiones están intrínsecamente relacionadas: Tenemos el mundo de la acción presente y el mundo de la estructura, que nuevamente es el efecto de las interacciones pasadas. Es por ello que, aunque relacionadas, no pueden reducirse a lo mismo (porque eso sería un error, conflación en las palabras de Archer).

¿Por qué digo que esto implica pensar que la sociedad es algo singular? Porque en ambos ejemplos el mundo de la acción y de las personas ocupa todo el presente y la estructura es el pasado. Pero eso implica olvidar lo siguiente: Que hay estructura en el presente. Todas las múltiples interacciones y acciones realizadas por otros con los cuales no estoy contactado funcionan como estructura, produciendo resultados que no puedo obviar; y que son claramente, en ese sentido, algo externo y real.

Archer, por ejemplo, rechaza explícitamente y en varias ocasiones toda idea de pensar la estructura solamente como algo presente. Y parte de este rechazo se debe a la idea que si fuera sólo presente entonces la sociedad sería algo que podríamos cambiar a nuestro antojo. Como podemos observar este rechazo entonces olvida, o le quita importancia, el hecho que el conjunto de las interacciones presentes no es siquiera conocida por un actor.

Y es por ello que es importante recordar que la sociedad en su conjunto no es equivalente ni se la puede pensar en un actor individual, es equivalente a una pluralidad de actores. En última instancia, es el hecho que los otros son actores es lo que evita que podamos pensar a toda la sociedad como si fuera un sólo actor. Los otros son irreductiblemente otros, y la sociedad es siempre plural.

Una idea sobre una malla curricular para Sociología

Algunas veces uno piensa cosas que no tienen mucho sentido, ni claramente tienen alguna oportunidad de ser relevantes. En esa categoría queda lo siguiente que son algunas ideas sobre una malla curricular para una carrera de Sociología.

Primero presentemos la malla y luego procedamos a explicar sus características.

Malla_sociologia_v2

 

Para la construcción de esta malla se pensó en lo siguiente.

  1. Las carreras de Sociología en Chile se caracterizan porque al mismo tiempo preparan a alguien para  una labor profesional (en ámbitos muy diversos) y prepara académicamente. Ahora, de hecho hay una cierta unidad general en todo esto porque la labor central del sociólogo, sea donde sea que trabaje, es la de investigar.
  2. En ese sentido, la idea es generar una malla que produzca un investigador del ámbito social, que tenga algún nivel de preparación ya sea para el ámbito profesional como para el académico. Esto implica que la enseñanza de sociología se ordena usualmente en torno a traspaso de habilidades para investigar más que para transmitir el conocimiento que ha adquirido la disciplina. Y eso es algo que intentamos mantener.
  3. Normalmente para dar cuenta de ello hay dos líneas centrales en las mallas: teoría y metodología. Al fin y al cabo para investigar se requieren conceptos y herramientas. La distinción que, aunque no es mucho lo que me guste, pero dado lo central de ella para la disciplina difícil poder obviarla. La idea aquí fue darle igual peso a ambas líneas centrales (ambas tienen 1 curso por semestre durante toda la carrera).
  4. Dentro de teoría la idea fue concentrarse en teorías actuales. Hay un semestre de clásicos (en el cual incluiría hasta Parsons), que puede ser limitado dado lo central de ellos en la tradición -pero por otro lado tener sociólogos que conocen bien a los clásicos pero no a la discusión posterior de la disciplina tampoco es tan adecuado. en relación a teorías contemporáneas la idea es tener un semestre de mirada general a todas ellas, y luego tener varios semestres dedicados a cada una de las principales teorías (elección de las cuales, claro está, bien podría mejorarse)
  5. Dentro de metodología la idea fue darle igual peso a cualitativo y cuantitativo (con un caveat que veremos a continuación). Además se intenta primero ver las técnicas y luego en cada caso semestre de análisis -entendido como estrategias y herramientas de análisis, en particular recordando que análisis cuantitativo no es estadística). En particular, la idea era -aunque no aparece en el gráfico- en tener los siguientes cursos: En metodología cuantitativa tener un curso de diseño de cuestionarios (y no sólo de indices y escalas como tuve en mi pregrado) y otro relativo a diseño de muestras. En metodología cualitativa tener tanto un semestre dedicado a las diversas técnicas de entrevista y otro dedicado a técnicas de observación. En Sociología tendemos a reducir, lo dijimos en otra entrada, lo cualitativo a entrevista y claramente es mucho más amplio.
  6. El caveat mencionado anteriormente es que matemáticas se convierte en una línea aparte y que no se reduce a estadística. La secuencia de estadística es 3 cursos más uno previo de probabilidad (dado lo central que es entender probabilidad para poder desarrollar un razonamiento estadístico adecuado creo que es útil dedicarle un semestre completo). Pero los usos de las matemáticas en Sociología van más allá de la estadística -aun cuando para el ejercicio puramente profesional quizás sea suficiente- y en ese sentido se agregaron otros cursos. Si bien hay carreras en que, por ejemplo, se integra un curso de cálculo o se pasan matrices, después no hay cursos donde estas herramientas se usen. La idea de tener un curso de sociología matemática y uno de redes sociales es la de tener modelos analíticos que usen herramientas matemáticas (que vayan más allá de la estadística).
  7. Hay otra línea, que aparece en varias pero no en todas las mallas en Chile, que es más bien ’empírica’ si se quiere: cursos dedicados al análisis de la sociedad. Dentro de la cual, dado que ha sido tan central a la tradición y a los intereses de la disciplina, un curso de estratificación. Al fin y al cabo, una cosa es que una carrera de sociología enseñe centralmente a investigar, otra cosa que no enseñe al menos algunas cosas sobre lo investigado.
  8. Una línea, más pequeña y que aparece después de la anterior, es una más profesional. Dado que la mayoría de los que estudian Sociología terminan trabajando profesionalmente al menos un curso en lo que parecen ser las líneas más comunes no deja de ser relevante. Al mismo tiempo dado que las personas se mueven a lo largo de su vida profesional supongo que es mejor tener una exposición a cada una de ellas en vez de especializar en pregrado.
  9. Además las secuencias normales de cursos auxiliares de otras disciplinas del ámbito social, de algunos electivos y de cursos de fuera del área.
  10. Un último punto de alguna importancia: ¿Y el carácter crítico de la disciplina? Si bien hay cursos de teoría crítica y algunos elementos críticos pueden aparecer en otros cursos (digamos, por ejemplo investigación-acción) es cierto que no tienen mucho peso. Por otro lado, ¿cómo ese carácter se puede traspasar a una serie de cursos? Si alguien tiene ese talante usará las herramientas recibidas con esa dirección, pero no tengo claro que sea enseñable.

Y entonces he aquí la malla y sus explicaciones. Como ya dije nada que posiblemente pueda tener alguna relevancia más allá de la de poner en claro las propias ideas sobre que podría ser una malla para estudiar la disciplina.

De las limitaciones de la modelación formal en Ciencias Sociales

En años recientes se ha extendido el uso de modelos relativamente formales en ciencias sociales. El modelamiento de agentes se ha hecho en particular algo popular. Y en particular, los modelos computacionales han aumentado de importancia en los últimos años.

En principio, el formalismo tiene algunas ventajas. Evita en buena parte la imprecisión y vaguedad de las ideas e hipótesis en ciencias sociales. Obliga a establecer los argumentos con claridad, y a obtener las consecuencias de las afirmaciones con mayor seguridad. Y en particular el modelamiento de agentes permite analizar la complejidad de la vida social de forma más ‘natural’ (a partir de agentes con reglas simples, los comportamientos complejos del conjunto emergen del proceso de interacción).
Sin embargo, los formalismos tienen limitaciones para ser aceptados como explicaciones finales en ciencias sociales.

En primer lugar, examinaremos lo que sucede con los modelos de agentes y los modelos computacionales.  La literatura que intenta formalizar agentes e interacciones usan una situación en que existen ciertas reglas del juego y capacidades establecidas (i.e por ejemplo, los agentes están distribuidos en una cuadrícula; o cambian sus comportamientos bajo tales circunstancias; o tales son las alternativas de comportamiento que tienen). En general, podemos observar que el formalismo exige un mundo cerrado. Y en particular, los modelos computacionales terminan demandando una especificación de todas las posibilidades.

El problema es que esa especificación resulta imposible en el mundo social que crean los actores. Porque una de las características de los agentes es precisamente su apertura: posibilidades siempre existentes de nuevas distinciones, nuevos aprendizajes, nuevas comunicaciones, nuevas preferencias, nuevas reglas del juego etc. Así entonces un modelo que se basa en que los agentes aprenden de determinada forma no puede dar cuenta del hecho que los actores aprenden sobre el aprender y luego pueden cambiar esas formas. Si un modelo se basa en que los actores usan determinadas reglas, no toma en cuenta que los actores pueden cambiar esas reglas. En este último caso, la teoría de juegos opera con una distinción central, que cambia todas las herramientas de análisis, entre juegos cooperativos (donde existe la posibilidad de decisiones vinculantes) y juegos no cooperativos (donde ésta no existe). Y entonces se dedica a establecer cuál es la estrategia racional en cada situación. Pero como el conjunto de estrategias del sujeto incluye también el cambiar las reglas, entonces una posibilidad es que, por ejemplo, lo racional en un determinado juego sea intentar pasar de un tipo a otro (creando o prohibiendo interacciones vinculantes entre actores). Pero eso queda fuera del modelo.

Una forma de resolver lo anterior es intentar incluir alguna modalidad de posibilidad de cambio al interior del modelo. Jürgen Klüver (1998, Modelling Science as an adaptive and self-organising social system en Computer Simulations in Science and Technology Studies (páginas 25 et passim) ha sido uno de los pocos que ha intentado superar esos problemas. Para ello ha combinado explícitamente autómatas celulares (para aprendizaje dentro de las reglas) con algoritmos genéticos (para el meta-juego de cambio de reglas). Representa un considerable avance pero sigue siendo insuficiente, aun cuando siempre hay que recordar que para reemplazar a una herramienta no basta con su crítica sino tener una mejor. No entraremos en las críticas específicas, que dicen relación con el tema de la adaptabilidad, sino volveremos al punto de inicio. El problema es que el conjunto total de alternativas no es definible. No podemos establecer, por ejemplo, la mejor estrategia porque el conjunto total de estrategias no sólo es infinito sino además, de hecho, no está bien definido. Una de las capacidades de los actores es generar distinciones para relacionarse con el mundo, siempre es posible que se cree una nueva estrategia porque es posible que los agentes generen una nueva distinción que la hace posible (y que no era posible antes que apareciera esa distinción). Y por ello todo modelo formal, que finalmente asume un mundo bien definido no funciona.

En ese sentido, estamos ante actores que son inherentemente capaces de apertura frente al mundo, y se relacionan con él a través de distinciones que ellos mismos generan. Eso es lo que limita las capacidades de un modelamiento formal.

Al mismo tiempo, nos muestra su gran utilidad. Si lo que evita que los modelamientos formales representen una explicación final adecuada es la apertura que tienen los actores, entonces en los medios en que esa apertura está limitada (o la capacidad de generar nuevos elementos es más difícil) entonces ese modelamiento será más adecuado. En otras palabras, si bien no puede dar cuenta del carácter fundamental de los actores, sí puede ser muy adecuado para analizar medios sociales específicos.

El problema que hemos observado también aparece en otra forma de análisis formal que es muy popular (particularmente en economía): modelos de equilibrio. El atractivo de un modelo de equilibrio es claro de observar: Más allá de las perturbaciones de largo plazo si podemos entender que posición ocuparía un sistema en equilibrio podemos tener una estimación de su comportamiento a largo plazo (i.e se moverá hacia el equilibrio).

Ahora, si nos tomamos en serio el tema que estamos ante actores que generan nuevos elementos entonces podemos observar una limitación que emerge de dicha característica: El movimiento hacia el equilibrio se puede romper en cualquier momento porque es posible que los actores creen un nuevo elemento que cambia el atractivo de un comportamiento. Si el ajuste hacia el equilibrio es lento, de hecho uno podría plantear que las probabilidades que sea alcanzado son bajas en la medida que aumenta la probabilidad que aparezca este nuevo elemento. Pero si suponemos que el ajuste es rápido, lo que es razonable suponer en el caso de interacciones repetidas sobre prácticas cotidianas, entonces lo que tenemos es equilibrio en el corto plazo (producto del ajuste), combinado por desequilibrio en el largo plazo (producto de la generación de nuevos elementos). En otras palabras, en actores que pueden generar nuevos elementos, el equilibrio a lo más es una situación de corto plazo, y al largo plazo no se puede obtener.

Un análisis basado en el equilibrio sigue teniendo sentido en muchas situaciones, pero reaparecer la situación que no puede representar una respuesta fundamental a las dinámicas sociales.

En ese sentido, los límites más importantes a los métodos formales en ciencias sociales no están dados tanto quizás por las temáticas asociadas al significado; sino al carácter de los agentes que tratamos. La relación de los agentes con el mundo es abierta, y una ciencia social básica debiera construirse sobre esa situación.

La Física de lo Social

Una característica relevante de la producción sobre la vida social en la última década es el creciente interés que han tenido los físicos en estos temas.

Un breve ejercicio de cuantificación

Para examinar esta idea podemos hacer breves revisiones de la cantidad de literatura escrita desde las ciencias físicas sobre temas de ciencia social. A continuación presentamos los resultados de dos de ellas.

Primero buscaremos en Arxiv.org, un repositorio online de papers que se ha convertido en un espacio de alta importancia para diseminar investigación antes de ser publicada, y que es muy usada por esta comunidad.

Presencia de Papers en temáticas sociales en Arxiv.org 2011-2013

Palabras claves Número de papers usando palabras claves en el Título Número de papers usando palabras claves en el Abstract
Social

553

(más de 1.000)

Social Networks

281

961

Social Dynamics

58

400

Social Analysis

25

380

Sociology

6

61

Una segunda exploración es en lo relativo a publicación de papers en revistas. Para ello usaremos datos de Thomson Reuters (Web of Science) para artículos usando las mismas búsquedas de la tabla anterior lo que nos permite encontrarnos con los siguientes datos. Aprovechamos además que este recurso nos permite observar el número de citas que estos artículos han producido.

Presencia de Papers en temáticas sociales en revistas de física 2011-2013

Palabras claves

Número de papers para ese topic

Número de citas

Social

590

1.089

Social Networks

406

821

Social Dynamics

325

654

Social Analysis

138

218

Sociology

10

15

Las búsqueda tuvieron la siguiente estructura:  ((TS=social AND TS=networks AND SU=PHYSICS)) AND Document Types=(Article) . Timespan=2011-01-01 – 2013-05-15. Databases=SCI-EXPANDED.

Esta revisión claramente ha sólo sido una exploración preliminar, pero creemos que muestra que efectivamente estamos ante una literatura emergente y que en algunas temáticas –redes sociales y dinámicas sociales- ha adquirido mayor importancia (en términos de publicaciones y citas).

Esta irrupción se ha desarrollado por más tiempo en redes sociales, por lo que puede ser de interés observar la dinámica que se observó en ella. Freeman, al revisar este proceso, (2011) plantea los siguientes hechos básicos: Primero, que los físicos se incorporaron al tema sin conexión con la literatura sociológica, ‘reinventando’ la rueda en varios casos. Segundo, que a pesar de lo anterior efectivamente su ingreso trajo una revolución, tanto en el sentido cuantitativo sino en muchos aportes que eran genuinamente nuevos. Tercero, que la reacción inicial de la sociología fue de rechazo al hecho que los físicos se incorporaran al tema sin tomar en cuenta los aportes de la ciencia social, algo que también hizo notar Bonacich al revisar esa literatura (Bonacich, 2004). Cuarto, que posteriormente al rechazo e incomprensión inicial, se ha dado un proceso de rapprochement entre ambos campos –con invitaciones a Conferencias de la otra disciplina y publicaciones cruzadas; o revisiones de esa literatura para beneficio de sociólogos (Crossley, 2008).

Si bien algunos de los elementos de conflicto son, quizás, de no demasiada importancia –reclamar porque otras disciplinas entran en el propio campo es natural como primera reacción- hay otros elementos que son más relevantes. Al fin y al cabo, que en un área donde existían puntos de contacto, y donde ya existía una cierta relevancia del formalismo matemático, ocurriera que la incorporación de los físicos trajera cambios importantes al campo es indicativo. Sus preocupaciones y modos de análisis son lo suficientemente distintos que, incluso tras decenas de años de trabajo en las ciencias sociales sobre un tema en particular, como el del mundo pequeño, la primera incorporación de físicos al tema (Watts & Strogatz, 1998) implicara un aporte importante.

La lógica de la investigación física al abordar el mundo social

Por lo tanto, más allá de la irrupción cuantitativa, es interesante observar las características (y diferencias) que ocurren cuando la comunidad física se introduce en estas temáticas.

Un examen más atento de los primeros textos de incorporación –el modelo de Watts del mundo pequeño (Watts, 1999; Watts & Strogatz, 1998) y la idea de Barabási  (2002) sobre redes libres de escala (scale-free networks)- puede ser de interés. Ambos textos, contra Freeman (2011), de hecho en sus antecedentes presentan literatura de ciencias sociales (Watts, 1999, p 12-23; Barabási, 2002, p 25-44). En ambos casos, y esto se repite en otros textos de física, el análisis está más centrado en textos clásicos –el experimento de Millgram sobre los seis grados de separación y el artículo de Granovetter sobre The Strength of Weak Ties– que en más recientes, pero de hecho al menos Watts no reduce sus citas a esos textos y el libro de Barabási es más de divulgación y menos técnico.

Sin embargo, más allá de ese reconocimiento, es cierto que sus marcos conceptuales y analíticos poco deben a las ciencias sociales. En ambos casos uno puede plantear que los textos observan que la sociología ha descubierto quizás un tema interesante (por ejemplo, puentes entre grupos en Granovetter) pero no una teoría o modelos que permita comprender ese tema. Así, por ejemplo, ¿cómo se generan este tipo de estructuras de red? ¿Qué consecuencias tienen esas estructuras para entender diversas dinámicas? Que son precisamente a lo que ambos textos se abocan: generar modelos formales para describir y explicar estas estructuras y exploraciones de sus consecuencias (por ejemplo como estas ideas afectan nuestra comprensión de las dinámicas de dispersión de enfermedades Watts, 1999, p 165-180; Barabási, 2002, p 131-142). Es esta preocupación por las dinámicas lo que plantea la revolución que Freeman (2011) indicaba, y algo manifiestamente ausente en el manual de análisis de redes sociales más clásico, el de Wasserman y Faust (1994).

En algunas reseñas más recientes de la literatura física sobre la vida social se sigue observando esta misma tendencia. Un texto de Castellano y otros (2009) que revisa la literatura de física estadística sobre dinámicas sociales plantea que:

In social phenomena the basic constituents are not particles but humans and every individual interacts with a limited number of peers, usually negligible compared to the total number of people in the system. In spite of that, human societies are characterized by stunning global regularities. There are transitions from disorder to order, like the spontaneous formation of a common language/culture or the emergence of consensus about a specific issue. There are examples of scaling and universality. These macroscopic phenomena naturally call for a statistical physics approach to social behavior, i.e., the attempt to understand regularities at large scale as collective effects of the interaction among single individuals, considered as relatively simple entities (Castellano et al., 2009, p. 591)

La idea general entonces es establecer algunas variables que sinteticen el comportamiento de un sistema, cuyas dinámicas dependen de interacciones sociales. Los modelos simplifican y abstraen, y en ello pierden realismo, pero ganan en universalidad (y de hecho varios modelos pueden aplicarse a redes biológicas o de otro tipo) y buscando que los sistemas modelados al menos den cuenta de algunos atributos básicos.

Al mismo tiempo la relación entre modelos y datos es central. Aquí uno puede observar un manifiesto al respecto, publicado de manera significativa en la revista Science y elaborado por sociólogos, físicos y otros investigadores, titulado Life in the Nework: the coming age of computational social science (Lazer et al., 2009) que plantea todos los posibles beneficios que la recolección de una gran cantidad de datos (sobre uso de redes sociales en Internet, sobre uso de teléfonos celulares y otros) para las ciencias sociales. De hecho, la disponibilidad de datos es algo que esta literatura observa como diferenciadora y específica a sí misma en relación a otras aproximaciones sobre sistemas complejos: This data inspired methodology is an important shift compared with earlier takes on complex systems. Indeed, in a survey of the ten most influential papers in complexity, it will be difficult to find one that builds directly on experimental data. In contrast, among the ten most cited papers in network theory, you will be hard pressed to find one that does not directly rely on empirical evidence’ (Barabási, 2012, p. 15).  Más aún, se observa que es la primera vez que se puede tener una aproximación científica sobre estas dinámicas porque por primera vez tendríamos una gran cantidad de datos sobre esas dinámicas (los datos de llamados telefónicos son datos de comportamiento real de interacción en última instancia).

La formalización de la dinámica de las interacciones es el eje de toda esta literatura. Y estas aproximaciones se usan incluso en ámbitos que un sociólogo pudiera pensar requieren metodologías puramente cualitativas –como por ejemplo, dinámicas de lenguaje o de cambio cultural.

¿Cuál es la relevancia de esta incorporación de la física?

Así podemos observar que cuando las ciencias físicas se empiezan a preguntar por lo social lo hacen usando su propia lógica y costumbres, muy alejadas de las de las ciencias sociales. La física ha realizado muchos cambios internos, pero la idea que se entiende un fenómeno cuando logro tener un modelo dinámico formal, que las pérdidas de ese modelamiento son inferiores a la ganancia en comprensión producto de esa modelación, que trabajar en términos de que interacciones hay entre los elementos y de ahí construir los resultados del sistema es una forma adecuada de investigar, siguen siendo centrales. Es una comunidad que sigue manteniendo que para analizar cómo las dinámicas generales se van construyendo lo que tengo que hacer es partir de las dinámicas de los componentes del sistema sigue siendo el principio operador.

Plantear que los temas asociados con la emergencia o la complejidad implica un nuevo paradigma en las ciencias que supera la vieja visión de las ciencias, o que una aproximación centrada en las redes y relaciones también abandona pretensiones de una ciencia explicativa (ver el resumen de Orchard, 2011, al respecto) no deja de ser extraño para una comunidad cuyas herramientas concretas para trabajar estos temas no ha implicado esos cambios.

En última instancia, uno podría plantear que los físicos nunca han estado muy alejados de lo que decía Ernest Rutheford, ‘all science is either physics or stamp collecting’. El hecho que los físicos se estén introduciendo a estudiar procesos sociales implica un reconocimiento que los procesos sociales pueden estudiarse científicamente, y al mismo tiempo plantear que ese conocimiento no existe en la actualidad (o a lo más sería filatelia). Lo cual implica, a su vez, pensar que los ‘problemas’ con las ciencias sociales no están en su objeto de estudio, sino entre quienes lo estudian.

La anterior coyuntura representa un desafío relevante para la sociología: La aparición del interés de una disciplina, que tradicionalmente se percibe a sí misma como la reina de las ciencias y que claramente tiene mayor seguridad en sí misma y mayor prestigio general, en los temas de la sociología –que no evalúa positivamente el esfuerzo intelectual del campo-,  no deja de ser relevante en términos de los usos y relevancia intelectual del campo.

Cómo la sociología se relaciona con esta mirada afectará de manera relevante las dinámicas del campo en el futuro. Lo que habría que evitar es la reacción simplemente defensiva o la de no tomar en cuenta estos cambios.

Ahora bien, una falta de respuesta de la Sociología frente a estos desafíos probablemente no tenga muchas consecuencias para la práctica y operación de la disciplina, para la profesión de sociólogo. Sigue siendo cierto que las ciencias sociales son parte intrínseca del funcionamiento de las prácticas de las sociedades modernas (Ramos Zincke, 2012). Pase lo que pase, probablemente siga siendo útil realizar por ejemplo encuestas de opinión pública sobre política, o encuestas de empleo. En algún sentido, todo seguiría de manera normal.

No responder a ese desafío más bien puede tener consecuencias en términos de la sociología como labor intelectual. Los estudios realizados por los sociólogos pueden que sigan teniendo sentido o al menos sigan realizándose como parte de la rutina operacional de diversas organizaciones; pero la sociología como un campo que intenta comprender la vida social, y tiene tradiciones de pensamiento específicas si puede encontrarse en peligro. La relevancia intelectual de la sociología es lo que finalmente está en juego; y la sociología bien podría reducirse a un saber útil y práctico, una técnica de administración, pero desprovisto de cualquier interés para una comprensión de la realidad.

La falta de respuesta a la física de lo social bien podría condenar a la sociología a ser una contabilidad social.

 

En la elaboración de esta entrada se tuvieron en cuenta los siguientes textos

Referencias Bibliográficas

 

Barabási, A.-L. (2002). Linked. Cambridge, Mass: Perseus.

Barabási, A.-L. (2012). The network takeover. Nature Physics, 8(1), 14–16.

Bonacich, P. (2004). The Invasion of Physicists. Social Networks, 26, 285–288.

Castellano, C., Fortunato, S., & Loreto, V. (2009). Statistical physics of social dynamics. Reviews of Modern Physics, 81(2), 591–646.

Crossley, N. (2008). Small-World Networks, Complex Systems and Sociology. Sociology, 42(2), 261–277.

Freeman, L. (2004). The Development of Social Network Analysis: A Study in the Sociology of Science. Vancouver: Empirical Press.

Freeman, L. (2011). The Development of Social Network Analysis -with an Emphasis on Recent Events. In J. Scott & P. Carrington (Eds.), The SAGE Handbook of Social Network Analysis (pp. 26–39). Londres: Sage.

Lazer, D., Pentland, A., Adamic, L., Sinan, A., Barabási, A.-L., Brewer, D., Christakis, N., et al. (2009). Life in the Network: The coming age of Computational Social Science. Science, 323(5915), 721–723.

Orchard, M. (2011). El “movimiento descriptivo” en la sociología. VI Congreso Chileno de Sociología. Valparaíso.

Ramos Zincke, C. (2012) El ensamblaje de Ciencia Social y Sociedad. Santiago: Ediciones Universidad Alberto Hurtado

Wasserman, S., & Faust, K. (1994). Social Network Analysis. Methods and Applications. Cambridge: Cambridge University Press.

Watts, D. J. (1999). Small Worlds. Princeton, NJ: Princeton University Press.

Watts, D. J., & Strogatz, S. (1998). Collective dynamics of “small-world” networks. Nature, 393, 440–442.

De la disputa de los métodos, o de codificaciones y números aplicados a los textos

A propósito de otras cosas estaba leyendo un blog en que se discute un libro de Richard Biernacki Reinventing Evidence in Social Inquiry (la discusión en Orgtheory aquí), y en particular una reseña del libro en el blog Scatterplot de Andrew Perrin (aquí el link). La tesis del libro es, si se reduce a lo mínimo, que los recientes usos de análisis numéricos y cuantitativos a textos no funcionan. Parte central del argumento es mostrar como las reducciones de los textos a codificaciones que luego se cuentan terminan por deformar el significado de esos textos. 

Como estos métodos han tenido un gran auge en los últimos años ayudados por los avances en procesamiento computacional -pensemos en cosas como los N-grams de Google por ejemplo- esta crítica ha generado polémica (y leyendo los blogs se puede observar que la publicación tuvo una azarosa historia). Perrin en particular que hace una crítica exhaustiva revisa varios puntos; pero como al final su rechazo al texto tiene un fundamento epistemológico bien podemos citar esa parte de la crítica

Finally, it is epistemologically indefensible. The main epistemological claim is wholism: that decontextualized fragments of text have no meaning separate from the surrounding text, and that in turn texts have no meaning separate from the cultural milieux in which they were produced.

  1. On the first: “The ‘representative sample’ approach of science cannot accommodate the pursuit of exchanges of cultural significance” (62). “Word frequencies never have a legible relation to cultural competencies, repertoires, or semiotic systems. Numbers do not sketch anything of verbal significance” (143). This is a bizarre theory of language, utterly irreconcilable with any reasonable understanding of how meaning is encapsulated in and extracted from text. Taking it to its logical conclusion, it is an indictment of any kind of analysis (the root, ana-, referring to dismantling an object of interest to understand its parts). All science is about discarding some information in order better to understand the information that remains,
  2. On the second: the requirement that texts be interpreted in their own cultures would reduce the meaning in such texts to nothing—the whole point of written text is that it is transportable across time and space and can be interpreted elsewhere in ways that bridge author, reader, and the respective cultural environments of each. The ridiculous requirement that texts be read within their “own” cultures quickly reduces to Borges’ fable of the map.

Ahora, los dos puntos en que se basa la crítica epistemológica no son tan fuertes finalmente. Decir que no se recoge el significado contando frases es, a decir verdad, una trivialidad. Por una parte, sabemos que de hecho no es extraño que la información relevante de una frase no sea dicho explícitamente en ella. Por otra, el efecto de significado de una frase en un texto no depende de su repetición. Una frase dicha una sola vez puede ser crucial y decisiva.

Como estas cosas son de análisis empírico mejor ilustrarlas empíricamente (es un ejemplo que sueldo dar en clases). A estas alturas hace más de 10 años participé en un estudio de focus sobre imágenes de la juventud entre grupos jóvenes. Ahora en uno de ellos, que casualmente no se reconocía como un grupo joven, se dio la siguiente dinámica. El grupo partió hablando de cierta manera -criticando a los jóvenes de la época por su falta de compromiso político. En cierto punto, uno de los participantes hizo una intervención planteando que, en realidad, eso estaba bien -la generación de los participantes del grupo en realidad no había podido disfrutar de su juventud debido a la necesidad de hacer política, y era algo positivo que los jóvenes ya no tuvieran que hacerlo. Luego de esa intervención toda la tónica del grupo cambió, y ya no se pudo volver a criticar a los jóvenes como se lo había hecho antes. Fue la frase más poderosa y relevante dicha, y lo fue tanto, que sólo fue necesario decirla una sola vez. Al mismo tiempo, para poder entender su fuerza es necesario entenderla en el contexto -o sea, o analíticamente separando en sus partes, sino analizando el significado de ella en relación a las otras frases (que, al fin y al cabo, era uno de las intuiciones básicas de la lingüística estructural*).

La segunda crítica en realidad requiere una mala lectura. Cuando Biernacki dice que los textos son parte de contextos específicos  y por lo tanto requieren ser leídos “as they are embedded in a culture different from [del analista]” no requiere plantear que un texto sólo puede ser interpretado en su propia cultura. Sólo que para poder entenderlo hay que entenderlo en su contexto. Digamos, un criterio y requisito bastante estándar -pruebe a leer un documento histórico sin saber nada del período y las posibilidades de cometer graves errores no son menores.

Plantear que estos criterios muy triviales son epistemológicamente indefendibles nos envía al título de la entrada. Al final lo que tenemos es la usual mutua incomprensión que ocurre entre defensores de una sola perspectiva para las ciencias sociales. Y por lo tanto lo que desde una perspectiva no es más que sentido común es indefendible desde otro. En última instancia, toda la ciencia consiste en el desarrollo del método que uso (la ciencia es análisis, es descomposición en partes).

Ahora, a estas alturas, la larga historia de la investigación social nos debiera mostrar que, de hecho, ambos métodos producen información útil y valiosa, y que no entregan el mismo tipo de información -no son reemplazables entre sí. Como lo cualitativo a veces tiene que defenderse bien podemos recordar lo siguiente. El que la vida social funcione nos muestra que lo cualitativo entrega información valiosa. Interpretar el significado de las comunicaciones de los otros es algo que hacemos todos de manera cotidiana, y es porque esa interpretación más o menos funciona que podemos operar en la vida social**. Por cierto los métodos cualitativos van más allá de esa interpretación cotidiana pero el que ella funcione nos muestra que sí entregan información.

Del mismo modo el que los métodos cuantitativos para analizar textos sean insuficientes e incompletos no quiere decir que no tengan sus usos (aunque, por cierto, no es eso lo que plantea Biernacki). Hay un momento en que sencillamente la cantidad del corpus no hace posible usar métodos hermenéuticos  y aunque uno sepa que es muy deficiente, algunas pistas da el contar palabras. El caso es que hay que reconocer las limitaciones de cualquier aproximación.

En todo caso, hay que recordar que la combinación y coexistencia de los métodos es algo que es parte del estado de la sociología. Por más que algunos se desesperen el hecho que los sociólogos realizarán estudios cualitativos y estudios cuantitativos y estudios mixtos esta entre las cosas que probablemente nos seguirá acompañando en el futuro.

(*) La lingüística estructural probablemente no tenga tanta influencia como en décadas anteriores, pero la idea que el significado es relacional creo que sigue siendo relevante.

(**) Si alguien necesitare otra prueba de la utilidad de lo cualitativo, baste con recordar que las empresas privadas los requieren y usan. Y como esas empresas no suelen gastar recursos en investigación por gusto, podemos pensar que tiene alguna utilidad para ellas.

Siguendo con el Censo

La situación sobre el Censo que discutíamos en un post anterior tuvo resolución ese mismo día en el sentido de la renuncia del director del INE -con investigación del Ministerio Público. Teniendo director nuevo y habiendo tomando algunas decisiones, uno puede proceder a observar que lo que está pasando con el INE. El domingo apareció una nota en La Tercera sobre el tema y lo que uno puede sacar en limpio es:

  • Al parecer la base para realizar ajustes y estimaciones existe y estaría en condiciones adecuadas. Los 15.8 millones de cuestionarios lo permitirían.
  • Se revisará cómo se hicieron las estimaciones a partir de la información existente, porque todavía no hay claridad de cómo se hicieron. Por lo menos uno debiera esperar que las estimaciones cambiaran, y hay promesa que lo que es estimado será así claramente mencionado.

En general, el nuevo director parece serio y las medidas de auditoria (interna y externa) también parecen bien encaminadas.

Sin embargo (siempre hay un sin embargo) tenemos lo siguiente:

También está en revisión la cobertura real del último censo y su tasa de omisión, que se situó en torno a 1,5%. Todo indica, señalan Flores y Coeymans, que si se contabilizaron personas estimadas como personas censadas, esa cifra ya no corre. Sobre la noción de que si hubo 800 mil personas estimadas sobre un total de 16.600.000, esa tasa de omisión podría ser más cercana a 5%, no se pronuncian, pero sí manifiestan que sigue siendo “una buena muestra de la población”, muy representativa.

“Una muestra en que se levantó el 95% de la población nos entrega una certeza (de la realidad del país). Esto, porque se puede presumir que ese 5%, la tasa de omisión que no encuestaste, al ser aleatorio, no tiene un comportamiento tan distinto con el resto del 95% de la población censada”, señala Flores (ver entrevista página 6). En el Censo 2002 la tasa de omisión alcanzó el 3,8%.

Lamentablemente no es tan claro. Una tasa del 95% de cobertura suena muy bien, y ¿como podrían estar tan descaminados los datos? Pero precisamente el tema es si la omisión es aleatoria. No es claro que ella lo sea. Y la hipótesis de una no aleatoriedad de la atrición debiera al menos ser tomada en serio.

En el censo, cada casa fue visitada varias veces. Lo mismo que en una encuesta normal, sólo que más acucioso. Ahora, la probabilidad de encontrar a una persona en un hogar no es igual ente todos los hogares. Precisamente por eso se visita varias veces. Ahora, los hogares que no pudieron ser censados a pesar de varias visitas probablemente son distintos -al menos tienen mayor probabilidad que no se encuentre nadie en el hogar. Hogares de una sola persona, o donde todos trabajan, u hogares más jóvenes (presumiblemente más propensos a salir) etc. Bien se sabe en encuestas que hay segmentos que son más difíciles de encontrar que otros.

Lo anterior ocurre bastante menos en un censo de hecho (si es que los patrones de atrición de esos censos son los que están usando y estos se estimaron como no aleatorios). Esto porque la instrucción a la ciudadanía era a no abandonar sus hogares -y eso en general se cumplía. Por lo que incluso un hogar en el que habitualmente no se encuentra persona alguna, de todas formas tenía el día del censo a sus personas presentes.

Tengo la impresión que otras posibles causas de atrición no aleatoria no serían relevantes -pero es sólo una impresión. La dificultad de encontrar el hogar en zonas de difícil acceso, por ejemplo algunas rurales, no sé si sea relevante. A los censistas, al parecer, se les pagaba por día, así que usar todo un día para encontrar una vivienda censada (por ejemplo) no debiera ser mayor problema -y nuevamente si había que visitarla de nuevo. Si las personas de viviendas rurales tienden a estar fuera de sus hogares (en sus labores por ejemplo) eso podría afectar, pero ese era el tema que mencionábamos con anterioridad. Eso sí, es probable que los niveles de atrición no sean homogéneos a lo largo del país, y que a niveles comunales existan varias con atriciones muy superiores.

Otra causa posible es que existan segmentos que tengan una menor disposición a contestar el censo, que se resistan a él (y que por ello no contestaron). Si esto ocurre claramente produce un sesgo, pero no tengo evidencias que eso ocurra. De hecho, la circunstancia que fuera común que los no censados reclamaran hablaría en contra -pero eso tampoco es evidencia concluyente.

En cualquier caso, existe una probabilidad de atrición no completamente aleatoria y debiera ser trabajado.

Más aún, hay dos tipos de procesos de atrición no completamente aleatorios. El primero es atrición aleatoria (missing at random) en la cual la atrición no depende de la variable que estamos midiendo, aun cuando puede depender de otra variable. Supongamos que estamos midiendo desempleo y el hecho de estar desempleado no afecta la atrición, pero podría estar afectada por sexo (los hombres responden menos). Pero como no está asociado a la variable, el sesgo puede ser solucionado por otras formas (digamos ponderación, dado que los hombres que responden son iguales a los que no responden). El segundo es atrición no ignorable, en la cual la probabilidad de la atrición depende de lo que estamos midiendo, y por lo tanto ya no es solucionable con ponderación -sino que se requieren modelamientos más complejos. Ahora en el caso del censo, incluso suponiendo que estamos ante atrición aleatoria (i.e los hombres tienden a responder menos que las mujeres, y recordemos que al parecer habrían 200.000 hombres menos) el ajuste no es sencillo -precisamente porque es el censo el que usamos para calibrar otros datos.

Qué es lo que habría que hacer para detectar y solucionar los posibles sesgos que tenga la atrición del Censo no es algo que con la información que tenemos disponible en la actualidad se pueda determinar. Si podemos plantear, en todo caso, que la realización de un trabajo de campo (ya sea re-encuastaje o derechamente otro estudio) sobre las viviendas habitadas sin moradores podría resultar adecuado.

 

NOTA. Y este fue el post 300 de este blog. No deja de ser un hito supongo.

El naturalismo ético en Sociología

Una idea común en ciencias sociales es lo que podemos llamar el naturalismo ético: La idea que lo real es bueno. Parte relevante de la discusión entre el tema del compromiso y la neutralidad se basa en ello: La única forma, finalmente, que de la existencia de ciertas cosas se puedan pasar a ciertas conclusiones normativas es que se suponga de antemano que la realidad tiene un cierto talante ético. Y dadas las discusiones en ciencias sociales ese es positivo. La idea que cuando mostramos que algo es “natural” al mismo tiempo mostramos que es incriticable, criticar la idea que X es natural porque de ello se sigue que sería adecuado; implica pasar del ser la deber ser sin otra transición.

Esto es algo que no sólo los más diversos argumentos tecnocráticos usan. Están a la raíz, de hecho, de muchos argumentos críticos. Pero, ¿no se supone que ellos critican la realidad? Pero critican la realidad actual en buena medida porque no es toda la realidad, que en ella se esconden aspectos más profundos de la realidad. Al fin y al cabo, cuando se pasa de la constatación que X es socialmente construido a la idea que con ello ya critique a X (ya mostré con ello que X es malo), lo que está detrás es la idea que la construcción social es negativa porque a través de ella se limita lo que podemos hacer y ello es negativo. Ergo, lo que es bueno es la potencialidad, o sea nuestra realidad subyacente. La crítica opera entonces, muchas veces, también afirmando la bondad de la realidad, solo que la realidad actual no es toda la realidad.

A pesar de lo extendido del naturalismo ético en Ciencias Sociales, no es la única posición ética defendible. Al fin y al cabo, existen muchas éticas religiosas que parten de un prejuicio más bien contrario -que hay que luchar contra una naturaleza perversa. Y podrán ser muchas cosas, pero contradictorias no necesariamente.

El caso es que para personas que no tienen una visión religiosa del mundo (como buena parte de los cientistas sociales) esa solución no parece viable. Y sin religión, entonces lo único que parece podría fundar una ética sería la realidad -y por ello entonces la premisa básica de que la realidad es éticamente buena.

Sin embargo, algo me dice que hay más opciones que las anteriores. Pensemos en el caso de Habermas. Supongamos que esta equivocado en las cuestiones de hecho -la situación ideal de habla bajo ningún caso puede decirse es fundamental a la realidad del habla. Los procesos de habla pueden producirse bajo condiciones autoritarias, manipuladoras y sesgadas (para usar su vocabulario) y de todas formas producen lo que todos los procesos de habla producen, digamos producen igualmente mundos de la vida etc. Sin embargo,  ¿porque de ello debiera concluirse que la situación ideal de habla no puede ser una situación ideal?

En un seminario reciente que realizó Daniel Chernilo en la Universidad de Chile (link aquí) planteo que, por ejemplo, cuando pensamos que lo social es de determinada forma (que se forma en la interacción, que es reconocimiento etc.) entonces al mismo tiempo estamos planteando una visión normativa: Que lo bueno es lo que permite a esa determinada forma (la interacción o el reconocimiento) desplegarse y potenciarse. Sin embargo, ¿por qué son esas las únicas alternativas? La conexión sólo tiene sentido si parto de la idea que la realidad ha de ser positiva.

El naturalismo ético, al menos en Ciencias Sociales, ha terminado asociado a la posición que no existen razones propiamente éticas, y que las únicas razones que existen son las que se refieren al mundo de los hechos. Ahora, en ese sentido, uno nunca hubiera creído que el positivismo hubiera sido tan influyente en las ciencias sociales, incluyendo a los críticos del positivismo, para aceptar tan buenamente la idea que sólo lo que se refiere a los hechos tiene sentido (‘es racional’).

Pero lo que olvida el naturalismo ético, al final, es que es una posición ética. No es una afirmación de hecho declarar que la realidad es buena; es una afirmación normativa. Y el naturalista ético tendrá que defender esa posición normativa, no solamente mostrarnos la realidad -porque en esa realidad no está esa afirmación.

La Situación del Censo

Una cosa son las discusiones metodológicas (digamos el cambio de censo de hecho a uno de derecho), en el que siempre se pueden tener controversias; y otra cosa también es que siempre en las mediciones hay problemas. Creo que lo del Censo supera ambas cosas.

La entrevista a Mariana Alcérreca en CIPER es bien devastadora:

En primer lugar. porque revela temas de incompetencia bien importantes. Por ejemplo, en lo relativo al cálculo de la fecundidad. Me llamó la atención que la cifra de fecundidad fuera un promedio de hijos por mujer en edad fértil (revisar página 16 de la síntesis en el sitio del censo). Yo algo había escuchado que en realidad es un número estimado (dado que, por ejemplo, las mujeres en edad fértil no han tenido todos los hijos que tendrán). Pero, bueno, no siendo  especialista en el tema quizás estaba mal. En la entrevista se plantea que:

La tasa de fecundidad: la calcularon simplemente tomando el total de hijos y el total de mujeres en edad fértil, y lo dividieron, por desconocimiento de cómo se calcula y por no preguntar a la gente de Demografía. Y ese cálculo erróneo lo hizo el propio director. Y lo sé porque a la semana, en una reunión con el equipo de Demografía, cuando nos dicen por qué hay un error y cómo se calcula la tasa de fecundidad –que se calcula desde las estadísticas vitales- el director dijo que la cifra entregada la había calculado él mismo. La filtración la hizo alguien que tuvo acceso al documento de síntesis de los resultados que se iba a entregar al día siguiente. Allí estaba la errónea tasa de fecundidad que después debió corregirse, al igual que las otras cifras con errores.

En segundo lugar, porque hay elementos directos de manipulación. En la entrevista hay varios así que sólo presentaré el que me parece más impresentable porque implica manipulación directa de datos. Incluso el tema relativo a la diferencia entre los 5.800.000 censados y 6.600.000 estimados podría achacarse, si uno tuviera buena voluntad, a un tema de comunicación y a un deseo de no complicar la difusión con detalles que nadie entiende. Pero lo siguiente no tiene esa excusa:

Finalmente, el director hace un viaje a Arica a mediados de marzo y el jefe del Censo, Eduardo Carrasco, se sienta conmigo y me dice: “Mariana, tengo un problema, con la base de datos estoy llegando a 16 millones 300 mil”. Le respondo que es grave porque cómo vamos a llegar a menos población que la que dijimos en agosto. ¡Imposible! “La diferencia la hacen esas personas de aquellas viviendas con moradores ausentes que estimamos en la primera vez”, agrega. ¿El director sabe?, le pregunto. “No”, dice. El director llega al día siguiente. Me voy a su oficina y le digo lo que pasa. De inmediato Labbé llama a Eduardo Carrasco. Y escucho que le dice: “Pero esto hay que arreglarlo, tienen que ser más, agrega la población”

De hecho, el tema del ocultamiento de información, primero frente a los propios equipos del INE, luego en relación incluso a la Presidencia también es muy notorio en la entrevista.

En aras de presentar cifras que avalaran la idea que estábamos frente al mejor censo de la historia se esconden varios antecedentes que muestran problemas relevantes. Nuevamente el punto no es que el Censo tuviera problemas -con cambio de metodología se pueden esperar algunos-, el tema es cómo se manipula la información.

Por ejemplo, en relación a la cobertura:

El dato de cobertura de viviendas no mide la calidad de un Censo. Según todos los papers internacionales lo que mide la calidad de un censo es la omisión de población, no de viviendas, porque uno no tiene ningún dato que le permita decir con exactitud cuántas viviendas hay. Como se habló de una cobertura del 98% de las viviendas, a partir de ahí el director y sus asesores empiezan a hablar del “mejor Censo de la historia de Chile”, porque la información que existe de los censos anteriores te hablaba de coberturas menores.

Pero la realidad de la omisión puede ser bastante más preocupante:.

Ese documento lo conoce todo el equipo de Demografía y el director. Por lo que sé, este demógrafo no tuvo acceso tampoco a la base completa del Censo, le pasaron solamente la parte demográfica. Entonces, él asumió que los 16 millones 600 mil que le estaban reportando, era población censada [y no que era un dato estimado]. Incluso así estimó la omisión en un 4,8%

En otras palabras, esto implica que ya se salió del ámbito normal de las dificultades y problemas de la medición social, que siempre es compleja. Estamos ante otra cosa.

Dada la relevancia del Censo como información y como generadora de información (los marcos muestrales de muchos estudios provienen de él, y espero que esto no se haya visto afectados -al menos la información que se sabe hasta ahora nada indican al respecto, pero no sabemos que puede aparecer mañana), como mínimo alguna auditoría externa sería necesaria.

PS 1. Si es sociólogo o en general usa datos de mediciones sociales, lea la entrevista.

PS2. Si hace clases de metodología, haga leer la entrevista a sus alumnos.

Neutralidad y compromiso en Ciencias Sociales

Una de las discusiones perennes de las ciencias sociales es la que dice relación entre la neutralidad valorativa y la necesidad del compromiso. A continuación intentaremos mostrar que ambas posiciones son más compatibles de lo que muchas veces se plantea, en al menos en algunas de sus variantes; y que -de hecho- ambas comparten el mismo adversario y la misma crítica.

La neutralidad valorativa se puede basar en la siguiente consideración humeana: No es posible pasar de una sentencia descriptiva a una sentencia de valor. Cuando uno extrae una conclusión de valor a partir de una descripción del mundo, hay siempre una premisa normativa. Esta premisa puede parecer muchas veces muy obvia, pero no deja de ser normativa. La exigencia mínima de esta posición es solamente que la posición normativa es normativa, no es algo que deriva puramente de descripciones.

El compromiso valorativo parte de la idea que un analista social es un actor, y que entonces tiene intereses. Lo que sucede en la realidad no le es indiferente, hay elementos que prefiere que sucedan y otros que no. En la medida en que, además el investigador se inserta en las acciones de otros actores, esos otros actores claramente sí tienen intereses y objetivos. Y por lo tanto, el uso de la investigación siempre implica que hay elementos valorativos.

Si lo anterior es correcto, entonces uno puede observar que hay formas de hacer compatibles ambas posiciones. La neutralidad valorativa es una posición sobre las afirmaciones, mientras que el compromiso es una posición sobre los investigadores. Y por lo tanto es posible al mismo tiempo la neutralidad de las afirmaciones y el compromiso de los investigadores.

Pensemos en los puntos más directos de confrontación

  • Que la elección de temas y objetivos de investigar, la ‘relevancia’ es un tema normativo. Pero desde la neutralidad no es algo tan complejo de reconocer (de hecho Weber mismo lo hacía cuando defendía la neutralidad); en tanto reconozcamos que la validez de las descripciones encontradas no es un tema normativo.
  • Que la evaluación normativa, desligada de la descripción, quedaría sin validez objetiva, o solamente sería algo subjetivo. Pero nada en la posición neutral implica que no se pueda discutir ‘objetivamente’ sobre normas; sólo que esas discusiones no son discusiones empíricas. La posición neutral, como ya dijimos, no implica la posición ’empirista’ que sólo de los hechos empíricos es posible discutir objetivamente. Ese es otro tema.

La compatibilidad de ambas posiciones es quizás más clara cuando observamos que ambas comparten un mismo adversario: la posición tecnocrática que es posible intervenciones neutrales. Bajo ambas ideas la idea de una acción que no tiene involucrado valores no tiene el menor sentido. En el compromiso eso es evidente, pero también lo es bajo el neutralismo: Lo que es neutral es la descripción no la acción. Precisamente la neutralidad se basa en la idea que de la descripción no se siguen evaluaciones, no se siguen acciones. Pensar que existe una intervención técnica, ‘neutral’, va en contra de la idea básica de la neutralidad: que descripciones y valoraciones son elementos distintos y no se puede deducir uno del otro.

La posición tecnocrática a veces reconoce lo anterior (i.e toda intervención tiene objetivos que no son neutrales) y define la posición técnica como una de herramienta: Otros actores definen los objetivos, y el investigador entrega el mejor medio técnico para su logro. Y eso es neutral, no normativo. El problema de ello es que no por ser una parte de una acción se deja de participar en ella. En otras palabras, un actor está pragmáticamente comprometido con los objetivos de las acciones en que se inserta, incluso si él no los define, los está aceptando al promover su cumplimiento. En otras palabras, no hay forma válida de escabullir el hecho que las intervenciones son temas valóricos, y por definición no pueden ser neutrales.

En resumen, si se mantienen distintas las referencias de la neutralidad y el compromiso, ambas son compatibles; y ambas critican las posiciones tecnocráticas, bajo las cuales es posible intervenir en la sociedad en un rol puramente técnico. La validez de una descripción puede no ser un tema normativo; pero todo lo relacionado con las intervenciones es irremediablemente un tema intrínsecamente normativo.

Una idea sobre el Capitalismo de la Información

Antes que se me olvide, y no es que sea muy buena o seguramente muy original (tengo que buscar a quién ya se le ocurrió), pero puede ser útil para desarrollarla después.

La contradicción entre la racionalidad del conocimiento -que exige publicidad y libre acceso a la información- y la racionalidad instrumental -que exige propiedad para poder obtener beneficios- es la contradicción del capitalismo de la información. Este requiere apropiación de la información, pero ello atenta contra la reproducción del recurso básico que es la información; pero si se asegura el acceso a la información entonces la apropiación entra en problemas, y es lo que se manifiesta en discusiones sobre copyrights o patentes -pensemos en la recientes decisiones de tribunales sobre patentes de genes.

Ahora, pensemos que el Estado ha cumplido históricamente la función de resolver pragmáticamente las contradicciones básicas. Al fin y al cabo, podemos pensar que el Estado de Bienestar (en educación, salud, vivienda etc.) es una forma en que se asegura la producción de una fuerza de trabajo más productiva y en mejor situación, que en un capitalismo industrial representa un recurso central. Entonces, la aparición y desarrollo de información pública producida/financiada desde el Estado para su posterior apropiación por parte de particulares bien puede ser el equivalente.

Y para otro post las posibles consecuencias de la idea. Al fin y al cabo, el tema recién se me ocurrió en el taxi.