La neutralidad valorativa y la distinción hechos-valores

Las ciencias sociales tienen en suerte mantener una discusión perpetua sobre algunos tópicos básicos. Una tentación, en que la he caído también, es declarar que todas esas discusiones no implican más que un estancamiento en estas disciplinas. Pero si se observa con más atención, entonces es posible argüir que si bien la disputa no se resuelve, los argumentos sí se refinan y mejoran, y en ese sentido la discusión no se queda inmóvil.

Una de estas discusiones es la relativa a la neutralidad valórica y uno de los argumentos es la distinción hecho y valor. Hace unos días leyendo una entrada al respecto en el blog scatterplot (link aquí) me encontré con un artículo reciente de Philip Gorski “Beyond the Fact/Value Distinction: Ethical Naturalism and the Social Sciences” en Society (link aquí) sobre este tema, en el que se critica la distinción hecho y valor, en específico criticando el argumento weberiano, de tanta influencia en la Sociología.

De acuerdo al argumento del texto, la distinción hecho/valor no funciona: Por un lado los hechos están impregnado de valores -cómo buena parte de la discusión en epistemología ha tratado de mostrar en el último medio siglo: por otro lado, los valores están impregnados de hechos: que cada vez que se plantea una discusión sobre valores al mismo tiempo aducimos juicios de hecho para apuntalarlos.

Gorski desarrolla un argumento de índole aristótelica para defender el carácter natural de los valores (i.e que están asociados indisolublemente a asuntos de hecho). Si hay un telos inherente a cada ser, y en buen Aristótelico ese es un juicio sobre la naturaleza; entonces, se sigue que hay elementos que propenden a su plenitud y logro, y evaluar positivamente esos elementos es un juicio de valor basado en hechos. Cada actividad tiene como parte de su descripción su propia virtud (y no hay duda en que la ética aristótelica es una ética de la virtud).

Se puede rechazar dicha ética, pero el argumento puede dar cuenta de ello. Porque normalmente eso lo haremos criticando el juicio de hecho (¿hay un telos?), porque el juicio ético se deriva del juicio de hecho, y la forma de crítica muestra el argumento fundamental de la imposibilidad de separarlos.

El argumento es bastante fundado, y es un hecho que discutimos sobre temas de valores usando consideraciones sobre la naturaleza fáctica de lo que discutimos.

Sin embargo, aunque puede ser central para criticar con éxito la versión de Weber de la distinción, aduciendo que no es posible entonces una neutralidad valorativa, creo que no lo es en relación a la versión de Hume -quién es el origen de la distinción en última instancia.

Porque que pasemos de asuntos de hecho a asuntos de valor no debiera ser noticia para un autor que inicia su An Enquiry Concerning the Principles of Morals con una discusión empírica sobre los valores de las personas. Y la observación básica de Hume es de hecho una observación de tránsito: lo que sucede al pasar de una discusión de hecho a una de valor, y lo que planeta es que introducimos algo nuevo (un juicio de valor) al hacer esa transición. En otras palabras, en Hume la distinción no implica que no existan tránsitos y que no estén imbricadas ambas esferas, sólo implica que son dos esferas.

Por ejemplo, en el argumento aristótelico hay un juicio de valor además de los de hecho: Que hay que desarrollar las potencialidades, que lo que hace ello es bueno. Ese juicio de valor puede ser obvio, puede ser natural, puede ser -de hecho. el único razonable dado el marco en que se trabaja, pero sigue siendo un juicio de valor y no uno de hecho. Y eso es todo lo que el argumento de Hume requiere.

Lo mismo aplica otros ejemplos usados en el artículo como la valoración de lo racional y lo original. Se requiere un juicio de valor para que lo racional sea positivo -y uno que, dadas la amplias críticas a la racionalidad como tal, no es tan universal como se pudiera pensar. La valoración de lo original, por ejemplo en las artes tampoco es tan evidente (hay formas de menospreciar la originalidad como tal, y se pueden valorar en cambio otras cosas como la habilidad –craftmanship)

 

Detrás de lo anterior hay una segunda crítica, que creo es más incisiva, que está con mayor claridad en la entrada de blog que mencionáramos: La crítica al carácter decisional de la formulación weberiana: En Weber ls valores son algo aparte de toda discusión racional, y sólo cabe una elección fuera de toda razón sobre ellos. Pero que es posible una discusión racional de valores es algo que muiestra cualquier examen de filosofía al respecto: No son discusiones empíricas o científicas si se quiere, pero no son mera declaración; hay argumentaciones propiamente éticas. De hecho, si incluso se realizan en la sociedad discusiones con argumentos en el campo estético, uno en el que usualmente no observamos bajo pretensiones de universalidad,  entonces con mayor razón son posibles en el campo de los valores.

Lo anterior claramente es incompatible con el argumento Weberiano. Pero, al mismo tiempo, es plenamente compatible con una visión de corte humean -nada evita que se pueda desarrollar al interior de ese marco una visión de una discusión argumental sobre valores, sólo se exigiría que ella fuera distinta de los juicios de hecho. La reducción de la argumentación racional al campo de los juicios de hecho es, si se quiere, una trampa positivista, y no una que sea requerida por la distinción hecho / valor.

 

Con esta discusión podemos, entonces, justificar nuestra aserción inicial: Que si bien las discusiones son perennes, eso no evita que ellas avancen. El texto que sintetizamos constituye una crítica eficaz de Weber, y en ese sentido representa un avance. Pero no resuelve la discusión en general porque queda, incólume, la versión original de Hume.

Puede resultar extraño y algo paradojal un avance en que el neo-kantiano Weber debe ser abandonado en pos de una argumentación original pre-kantiana. Sin embargo, creo que es más interesante que una mera extrañeza: la filosofía clásica alemana, tan central para la Modernidad, se constituye con Kant como una forma de superar e integrar las dos tradiciones básicas de la filosofía occidental moderna: el empirismo y el racionalismo. Ese es un proyecto central en la tradición moderna, pero la síntesis kantiana no parece haber sido el camino más adecuado (al menos con dos siglos de hindsight). Explorar otra forma de sintetizar Hume y Spinoza, para usar algunos de los nombres claves de las tradiciones de base, no deja de ser un proyecto filosófico alternativo de la modernidad, y una que no fue explorada.

Quizás he ahí una forma de efectivamente superar las viejas antinomias de la tradición del pensamiento de las ciencias sociales.

 

 

Influencias de autores y las tradiciones de la Sociología. Habermas, Luhmann y Bourdieu.

En la actualidad es relativamente sencillo hacer algunos divertimentos con datos. Usando el Ngram Viewer de Google -que realiza un sencillo conteo de problemas en diversos corpus de libros, es posible tener algunas impresiones sobre la influencia de determinados autores: Es cosa de observar cuanto aparecen sus nombres en los libros del corpus. Como Google presenta los datos por idioma es además sencillo comparar esa influencia entre diversas tradiciones, y como la Sociología no es una ciencia universal es quizás interesante hacer comparaciones.

Luego, ¿que pasa con la influencia de autores relevantes como Habermas, Luhmann o Bourdieu? Partamos con el corpus en español:

ngramspanish

 

Bourdieu y Habermas tienen una trayectoria muy similar: Crecen a partir de 1985, alcanzan un peak entre 1990 y 1995 y luego empiezan a disminuir. A partir del 2000, en todo caso, hay recuperación pero claramente Bourdieu aparece como más central -y vuelve a alcanzar su peak previo. Luhmann prácticamente no existe hasta el siglo XXI en que empieza a subir, pero sigue siendo menor (lo cual nos indica nuevamente su anómala posición en Chile donde su posicionamiento como gran teórico es anterior).

Ahora revisemos la situación en Inglés:

ngramenglish

 

Habermas es claramente mucho más relevante que Bourdieu y que Luhmann. Habermas es relevante desde 1970, alcanza un peak en 1990, luego disminuye pero en el siglo XXI el porcentaje de libros en que es mencionado vuelve a aumentar de manera muy clara. Bourdieu a partir de 1975 claramente es un autor menos citado que Habermas y entra luego en una etapa de menor popularidad, la que se vuelve a recuperar en este siglo -pero claramente a mayor distancia de Habermas. En el caso de Luhman hay cierta influencia entre 1975-1980 (de hecho previo a la publicación del Sistemas Sociales en Alemán), la que prácticamente desaparece posteriormente, y luego a partir de 1995 empieza una lenta y pequeña recuperación (y si mal no me equivoco la traducción al inglés es de ese año). Pero claramente está lejos de los otros autores.

En español y en inglés, Luhmann es claramente menos relevante que Habermas o Bourdieu. En el caso inglés, Habermas -que ha sido servido por mejores traducciones (pero eso es en sí una señal de influencia)- es más popular. En español, ambos estaban en una situación similar, pero en los últimos años Bourdieu es más dominante.

Ahora revisemos la situación en alemán (dado que dos autores son alemanes). Y aparece lo siguiente -que claramente es un mundo distinto de los que hemos visto hasta ahora:

ngramgerman

 

Aquí Habermas fue muy influyente, pero sólo hasta cerca de 1990 (o sea, la publicación en 1980 de la Teoría de la Acción Comunicativa le sirvió para mantenerse 10 años) y luego prácticamente desaparece. Luhmann en cambio, que hasta 1995-2000 no era tan relevante, adquiere una fuerte tendencia de aumento. Bourdieu aquí aparece como un autor más bien secundario -aun cuando ha aumentado en años recientes y supera a Habermas.

En alemán entonces, Habermas -al revés que en español y en inglés- es un autor ‘antiguo’, Luhmann ha adquirido gran importancia -en español y en inglés tiene curva de aumento en las mismas fechas pero mucho menores. Y Bourdieu claramente no alcanza la posición que mantiene en español o en inglés.

No presentó el ejercicio en francés, pero el dato más relevante quizás es que -de forma totalmente contrapuesta al corpus en alemán- Luhmann de hecho no existe (i.e no aparece en el gráfico que produce ngram).

El ejercicio es claramente muy burdo -y los datos usados tienen varias falencias (y además hay preguntas sin contestas: en todos los gráficos entre 1990-2000 disminuyen las referencias, ¿es un problema de los datos? ¿fueron reemplazado por otros autores?). Hay algunos autores que, lamentablemente, no pueden incluirse -sin entrar a un análisis más serio: Por ejemplo, Archer (donde el apellido es una palabra común en el idioma inglés, lo que claramente afecta a los resultados).

Con todo, no deja de ser interesante. Y no deja de mostrar con claridad lo provinciano de las ciencias sociales. Un cambio de idioma (o cruzar un río en el caso francés-alemán) y el mundo de referencias es completamente diferente.

La producción de la unidad del individuo (II)

Siguiendo con la entrada anterior (La producción de la unidad del individuo I) entonces ahora corresponde intentar responder a la pregunta de por qué el individuo tendría prioridad.

En parte esta prioridad se debe a que la unidad como actor del individuo se puede postular como algo ‘dado’. El hecho que un contexto afecte al actor de forma tal que después actúa en consonancia, ese proceso a través del cual se asume su unidad (i.e es el mismo el que fue afectado y luego actúa, tiene continuidad), en los individuos se puede simplemente asumir -por la continuidad corporal de ellos.

Ahora bien, asumamos por ahora esa afirmación. Pero en ese caso podremos observar (y de hecho, el mismo Coleman lo hace) que los procesos sociales generan unidades colectivas con esa unidad: las llamamos organizaciones y nos relacionamos con ellas como si fueran actores. Por ejemplo, pueden ser demandados o demandar, y e cada caso el juez entenderá y actuará como su la organización, no individuo alguno, fuera el demandado o el demandante etc. Esta unidad claramente es producida, más aún, la acción de la organización en el momento X puede entenderse como resultado de los actores que pertenecen a ella en el momento X (que el individualista metodológico nunca olvidara de mencionar). Pero lo que resulta es un actor.

Si alguien quisiera discutir la conclusión anterior es posible aducir otra razón adicional. Este carácter producido del actor colectivo puede a su vez (y es el mismo Coleman quien hace la sugerencia y algunos resultados recientes en neurobiología lo avalan) aducirse para el individuo: Que la acción individual -de un actor que posee unidad- es producida por la forma en que se combinan diversos elementos internos (i.e que tu decisión es producida por un conjunto, por una ‘comisión’ interior).

Lo anterior se puede a su vez radicalizar, y con ello ya salimos fuera de Coleman, haciendo ver que la unidad del actor depende de la malla de interacciones en que se encuentra inserto. Y como cada ‘actor’ en realidad pertenece a diversas mallas bien se puede constituir en diversas ‘unidades’: teniendo características diferentes en cada red. En algún sentido, lo que es el actor depende de las interacciones en que se inserta. Ago además que puede aplicarse de manera indistinta a cualquier tipo de actor, como Harrison White ha destacado.

Si lo anterior es correcto entonces el individuo como actor no tiene ninguna prioridad ontológica si se quiere: El individuo es tan construido como los actores colectivos que se crean en la interacción.

Sin embargo, hay un sentido en el que el individuo físico, corporal, tiene características especiales. Puede que el realismo ‘vulgar’ que piensa a los individuos biológicos como unidades prioritarias y dada no sea sostenible teóricamente, pero dado que el realismo ‘vulgar’ es parte de a vida social entonces tiene consecuencias. Así piensan los actores y aí se relacionan -parte de lo que genera la unidad del actor individual es que otros actores lo reconocen como unidad y lo tratan como una unidad (recordemos un poco como Mead trabajaba el tema de la formación de la persona en la interacción). El individuo no estará dado, pero el proceso de construcción usa a los individuos como elemento sobre los cuales construir. Representa así la unidad más evidente y básica, la más fácil de operar.

Si se plantea que este pretendido carácter ‘evidente’ del individuo es sólo algo producto de la modernidad / del capitalismo / del racionalismo, bien se puede retrucar que hay una malla que opera en todas las sociedades que es individualizante: las relaciones de parentesco ‘individualizan’ cada sujeto  -dado que ocupa posiciones diferenciadas en esa malla. Al mismo tiempo, por más que se disuelva al individuo en sus mallas de interacción hay elementos (por ejemplo, su memoria) que el actor, el individuo en este caso, traslada a través de sus ubicaciones.

La unidad del individuo es construida. Esto tiene múltiples consecuencias (por ejemplo, en lo relativo a cómo el actor identifica sus propios intereses). No se lo puede tomar como una unidad dada, en eso es equivalente a cualquier otro actor. Pero, al mismo tiempo, representa un sustrato sobre el cual se pueden construir más fácilmente esa unidad del  actor. Por así decirlo, el individuo biológico es el lugar desde el cual más fácilmente se puede ‘entrar’ en ese proceso de construcción de unidades de acción. Es una relevancia especial que no alcanza a fundamentar las pretensiones del individualismo metodológico, pero no por ello deja de ser relevante.

La producción de la unidad del individuo (I)

Entre las disputas perennes del análisis social se encuentra la relativa al individualismo metodológico: Entre quienes postulan que sólo los individuos existen real y concretamente y que todo elemento colectivo tiene, a lo más, una realidad derivada; y quienes plantean que las entidades colectivas tienen tanta (o incluso más) realidad que los individuos.

La versión anterior está dicha en términos ontológicos, de realidad. Más popular finalmente, y diferente pero asociada, es la idea del individualismo metodológico: Que todas las explicaciones han de reducirse a una explicación a través de actores individuales. Aquí bien se puede reconocer que existen situaciones colectivas, pero en lo que concierne a los actores -que es donde debe radicar la explicación- ellos deben ser individuales (o reducibles a individuos).

En años recientes se ha expandido en ciertos círculos sociológicos un esquema particular de explicación que sigue estos lineamientos, que está basado en un esquema desarrollado por James Coleman en su Foundations of Social Theory (1990), y que fue pensado inicialmente en lo relativo a las relaciones micro-macro, terminología tan cara a la sociología norteamericana en esos años (de hecho, en el texto citado se usa para analizar la argumentación Weberiana sobre el origen del capitalismo).

Bote-Coleman

 

Analizando a Weber, Coleman nos dice que hay una situación sistémica (la doctrina protestante). El origen de ello no es parte del argumento, así que para esta explicación aparece como dada (aunque a su vez a ella misma se le puede aplicar el mismo esquema). Luego, a partir de ello se generan cambios en el individuo (es influenciado por su contexto): Adquiere ciertos valores. Teniendo esos valores entonces desarrolla ciertas conductas (ascéticas). Coleman plantea que el último paso del argumento sería mostrar como esas conductas generan un cambio a nivel sistémico: el capitalismo, pero que de hecho Weber no lo hace -y por ello es incompleta su explicación.

A partir del ejemplo podemos observar como, desde esta perspectiva, se observa la relación entre el actor individual y la sociedad. Lo colectivo genera un contexto que influencia al actor (pero la forma en que influencia depende de las características del actor en última instancia), este elabora y desarrolla su acción, y el conjunto de estas acciones de los agentes a su vez genera un resultado colectivo. En este argumento no se niega que existan realidades colectivas, pero se les quita de toda relevancia causal: El lazo que está prohibido en el esquema es el directo de contexto colectivo a inicial a resultado colectivo inicial. No hay lazo macro-macro, debe pasar por lo micro, usando la terminología de Coleman.

Usemos ese esquema como punto de partida. Una primera observación es que, de hecho, hay muchas explicaciones que usan el camino prohibido (por ejemplo, tales sociedades -con alta desigualdad o basadas en la dominación urbana. no son compatibles con democracia). Las formulaciones clásicas de esos argumentos eran puramente colectivas. Recientemente Acemoglu y Robinson publicaron The Economic Origins of Dictatorship and Democracy -calcando su nombre del clásico de Barrington Moore; para darle un basamento micro a esos argumentos, bajo la idea que ellos estaban incompletos porque a no pasar por el actor no explicaban desde ‘primeros principios’. ¿Pero le quita eso carácter de explicación a la primera, puramente colectiva?

Una explicación incompleta no por eso deja de ser una explicación. Al fin y al cabo, muchos individualistas son reduccionistas en general, y en buen reduccionismo habría que ir del individuo a sus neuronas y así sucesivamente. Pero eso no se hace,  o al menos no se declara como indispensable para la investigación (*). El reduccionista dice que ello es posible en principio, pero no exige que cada explicación realice esa operación. Pero si se acepta ello, ¿por qué no será posible detenerse en la explicación macrosocial y no pasar por los individuos? Allí también se podría asumir como ‘en principio esto pasa por conductas de individuos’ pero no estudiarlas, quizás porque se las observa como asuntos más bien triviales en ese caso (del mismo modo que el individualista no procederá a estudiar neuronas porque lo que sucede a ese nivel es trivial, algo asumido, para su nivel de investigación). ¿Por qué el individuo tendría prioridad?

Y dejamos el desarrollo de la respuesta para la siguiente entrada -al fin y al cabo, hay una extensión sensata para entradas de blog, y con lo que queda da para otra entrada.

____________

(*) No se realiza el camino completo de una sola vez en todos los casos. Cada paso de ese camino puede ser realizado (y algunos de hecho son realizados, por ejemplo reduciendo procesos biológicos a interacciones químicas entre moléculas y etc.). Más allá de si esta estrategia funciona o no efectivamente, lo que nos interesa simplemente es recordar que en modo reduccionista de todas formas nunca se exige que realice el movimiento completo a primeros principios; y lo que se considera primeros principios depende de lo que se intenta explicar en cada caso. Nada obliga en una estrategia reduccionista a usar el individuo como unidad estándar en todas las explicaciones

 

 

Voto Voluntario y Evolución de Resultados Electorales

1. Introducción

Una de las posibles consecuencias que se han discutido sobre el hecho de tener elección con voto voluntario es el sesgo socioeconómico: Que comunas con menor nivel socioeconómico tenían más abstención (por ejemplo, ver el siguiente artículo de Contreras y Morales). Lo que a su vez fue negado por otros o relativizado por otros, así Valenzuela). En todo esto me ha llamado poderosamente la atención que no exista mayor preocupación por los posibles sesgos estrictamente políticos del voto voluntario.

Aquí uno puede comparar con la atrición en encuestas (que es equivalente al hecho de abstenerse en una votación). De acuerdo con la más clásica de las distinciones hay tres procesos básicos de atrición: Uno es que sea completamente al azar (que es equivalente a proponer que la abstención es pareja para todos los segmentos). Otra es que esté asociada a otra dimensión pero no a lo que queremos medir. Digamos, quiero medir ingresos pero los hombres contestan menos que las mujeres. Ahora como el hecho del sesgo no está asociado a ingresos, entonces los hombres que contestan tienen los mismos ingresos que quienes no contestan. Esto es equivalente a suponer que el sesgo es sólo de nivel socioeconómico, pero dentro del mismo nivel socioeconómico quienes votan son iguales a quienes no votan. Es la hipótesis de quienes mantienen que si hubiera existido voto obligatorio (y luego mayores tasas de participación en comunas populares donde Bachelet ganó en primera vuelta por grandes mayorías) no hubiera existido segunda vuelta: Esos votos ‘perdidos’ se hubieran comportado igual que los que fueron a votar.

La hipótesis más compleja es el tercer tipo de atrición; Cuando el proceso que produce atrición está asociado a la variable que quiero medir: Me interesa conocer ingresos pero un grupo de ingresos tiene menor disposición a participar. Esto es equivalente al hecho que el sesgo electoral está asociado a posiciones políticas. Que es la hipótesis que intentaremos explorar aquí.

Explorar porque con datos agregados sacar conclusiones sobre personas tiene el riesgo de la falacia ecológica. Pero de todas formas sirve como primer ejercicio. Ahora, como ya existe la idea que hay un sesgo socioeconómico, entonces la idea es observar ambas dimensiones.

2. Los datos

Para ello se creó una base de datos con las 34 comunas del Gran Santiago. ¿Por qué? Porque el Gran Santiago está segregado socioeconómicamente, por lo cual una comuna de altos ingresos está compuesta en buena parte por personas de altos ingresos; y una comuna de bajos ingresos está compuesta a su vez por personas de bajos ingresos. En comunas mixtas -como lo es buena parte del resto del país (donde en la misma comuna conviven personas de altos y bajos ingresos)- las diferencias por ingresos entre comunas dividen menos entre personas de altos y bajos ingresos. Es una forma, pequeña, de limitar el riesgo de falacia ecológica.

Dado que nos interesa ver que sucede socioeconómicamente entonces necesitamos una variable para ello. Se eligió como variable el ingreso autónomo del hogar promedio por comuna tal como aparece en la CASEN 2011. Pensé en ocupar nivel de pobreza -como se hace en otros análisis- pero revisando los datos, y recordando las limitaciones de la CASEN para estimaciones en poblaciones pequeñas, los datos de ingreso daban resultados más ‘sensatos’ (por ejemplo, por nivel de pobreza Lo Barnechea no queda en las comunas de altos ingresos).

¿Y comportamiento electoral? Para medir el impacto político supongo que es adecuado observar como ha evolucionado la votación de la Concertación y la Nueva Mayoría y compararlo con la derecha. Para ello, y para comparar igual con igual, se extrajo del sitio del SERVEL los datos de las elecciones de 2a vuelta de 1999, 2005, 2009 y 2013. Y en cada elección se generó un dato para el candidato de la derecha y otro para el candidato de la Concertación.

Luego, se procedió a establecer las diferencias: La diferencia entre la votación 2013 y 2009 y, dado que 2009 no es quizás la mejor base de comparación, también la diferencia entre la votación 2013 y el promedio de la votación 2000-2009. Como esta operación se realizó para la Concertación-NM y para la Derecha es posible establecer el porcentaje de disminución de cada coalición por cada comuna.

¿Por qué no usar el dato de abstención? Primero porque entre medio está el cambio de padrón que para una comparación entre elecciones hace algo inviable -al menos para un ejercicio rápido- llegar y comparar niveles de abstención.

La base -modesta en todo caso- disponible aquí.

3. Los resultados

Lo primero es lo que ya es relativamente conocido: La disminución es mucho más fuerte en la derecha y esto aplica tanto en relación al 2009 como al promedio 2000-2009. Los promedios de todas las comunas en la siguiente tabla:

Coalición Comparación 2013 con 2009 Comparación 2013 con promedio 2000-2009
Concertación-NM 0,7% -10,8%
Derecha -37,9% -35,5%

Así que, en primera instancia, podemos decir que el voto voluntario afecta a una posición más que a otra.

Pero más relevante, y más interesante, es observar la relación con el nivel socioeconómico. Al fin y al cabo, si sabemos que las comunas de mayores ingresos tienen menor abstención y son al mismo tiempo las que votan más por la derecha, hay al parecer un fenómeno interesante que explorar.

Dado que esto es un ejercicio rápido, simplemente colocaremos los R2 (y el signo) de la relación entre el Ingreso CASEN 2011 y las variaciones de la votación a nivel comunal por coalición. Primero presentamos el dato para todas las comunas:

Coalición R2 Ingresos -> Diferencia 2013 con 2009 Signo regresión R2 Ingresos -> Diferencia 2013 con promedio 2000-2009 Signo regresión
Concertación-NM 7,7% Negativa 1,3% Negativa
Derecha 72,6% Positiva 56,1% Positiva

Como podemos observar en el caso de la Concertación-NM no hay mayor relación: El porcentaje de variación no cambia mayormente de acuerdo al nivel de ingreso de la comuna. El poco impacto que existe es negativo: a mayor ingreso disminuye la votación

En el caso de la Derecha la relación es bastante fuerte (56,1% R2 entre ingreso y variación 2000-2009 contra 2013). Y la relación es positiva: En las comunas de menores ingresos la caída de la votación es mucho mayor

Pero sucede que Vitacura tiene un ingreso tanto mayor que el resto que para una regresión lineal tiene sentido hacer las mismas comparaciones sin Vitacura (*)

Coalición R2 Ingresos -> Diferencia 2013 con 2009 Signo regresión R2 Ingresos -> Diferencia 2013 con promedio 2000-2009 Signo regresión
Concertación-NM 2,5% Negativa 0,2% Positiva
Derecha 76,7% Positiva 57,0% Positiva

 

Y podemos observar que, incluso eliminando el caso outlier, las conclusiones son las mismas. De hecho, lo único que pasa es que con la Concertación-NM la relación es inexistente, mientras que en el caso de la Derecha se mantiene.

Quizás la situación de la derecha quede más clara en el siguiente gráfico (en que elegimos el análisis sin Vitacura y comparando diferencia votación 2013 con promedio 2000-2009)

variacion_votacion_derecha_ingresos

 

La disminución de la votación es claramente más fuerte en comunas de más bajos ingresos, y es en las comunas de altos ingresos se pudo observar una variación positiva (Las Condes y Lo Barnechea en las comunas que quedaron en el análisis) o de menor magnitud.

El análisis de regresión tiene diversas ventajas, pero también desventajas. Una de ellas es propugnar una relación lineal cuando no siempre quizás esa sea la mejor forma. Para simplificarnos la vida presentaremos una tabla que resumen las variaciones de las votaciones por niveles de ingreso de las comunas por grupos (por quintiles de comunas)

Quintil Comunas % cambio votación NM promedio 2000-2009 % cambio votación Derecha promedio 2000-2009
Quintil 5 VI, LC, PR, LB, ÑU, LR -13,4% -6,0%
Quintil 4 SA, LF, MA, PE, IN, HU, SM -5,4% -30,1%
Quintil 3 CE, CO, LC, SR, QU, QN, MC -12,7% -42,1%
Quintil 2 LG, LP, PC, EC, PA, PU, RE -10,3% -43,7%
Quintil 1 LP, LE, SB, EB, SJ, CR, RE -12,8% -51,1%

Como podemos observar, en las comunas de menores ingresos la caída de la derecha es de mayor magnitud (el efecto también se produce si se hace la comparación sólo con 2009 pero es de menor magnitud y divide más bien Quintil 1 / Quintil 2 / Quintil 3 a 5). Mientras que en la Concertación-NM es relativamente más parejo.

En otras palabras, no sólo parece existir un sesgo político en los cambios producidos por el voto voluntario, sino que ese sesgo parece tener alguna relación con el nivel socioeconómico: No fueron los pobres en general los que dejaron de votar, sino en particular los pobres de derecha.

En otras palabras, si esas personas hubieran ido a votar no es Bachelet quien hubiera recibido esos votos. Quién fue a votar parece ser distinto de quién no fue a votar.

4. Pequeña Discusión

El ejercicio es burdo y todo pero creo que ilustra que tiene sentido explorar otros sesgos más allá del socioeconómico. No deja de ser razonable que existan sesgos políticos como efecto del voto voluntario. Esto porque la derecha y la izquierda tienen relaciones distintas con la política.

La izquierda es, finalmente, pro-política, cree que es una actividad valiosa y que, en el mejor de los casos, puede llegar a ser noble. Es una posición que cree como solución de los problemas en la construcción colectiva pública, en otras palabras que cree que a través de la política es como se puede mejorar la vida.

La derecha, por el otro lado, es anti-política, sospecha de ella y de lo que en ella se puede hacer, y la buena sociedad es donde hay menos gobierno y actividad colectiva. En el mejor de los casos, la política puede no hacer todos los males que puede hacer, y la labor del político de derecha es la necesaria pero ingrata tarea de evitar esos problemas. Mientras menos política, mejor.

En esas condiciones no es raro que el votante de derecha vote menos cuando es voluntario hacerlo. Y menos extraño es que el votante popular de derecha -la persona que reúne las dos condiciones que hacen rehuir de la política, el menor nivel socioeconómico y su posición política- sea la persona que menos vota. Para un votante cuya visión de la política bien se puede ejemplificar con el refrán de ‘para qué votar si mañana igual tengo que ir a trabajar’  aprovechar la oportunidad de no votar es lo que tiene más sentido.

El análisis anterior es, por cierto, válido para estas elecciones. Una vez que los actores políticos internalicen estrategias adecuadas para relacionarse con el voto voluntario otras cosas sucederán. Pero al menos en estas elecciones el votante que no fue representado fue el voto popular de derecha -el de la UDI popular si se quiere buscar una imagen específica.

 

(*) Conste que en general no tiene mucho sentido eliminar para un análisis de al relación entre Nivel Socioeconómico y Votación las comunas de mayores ingresos: Porque si las eliminamos, eliminamos buena parte de las personas de mayores ingresos; y dada la concentración de ingresos es en esa parte de la distribución donde se producen las mayores diferencias. Sabido es que los deciles de menores ingresos tienen promedios similares, y es sólo en los de mayores ingresos -y en particular en el de más ingresos- donde se produce la diferencia. Eliminar las comunas de mayores ingresos es eliminar el segmento de la realidad donde se produce el efecto. Pero en este caso, al menos hacer un análisis sin Vitacura puede tener sentido.

Los límites de la naturalización de lo Social

El concepto de naturalización de la vida social es central en el pensamiento de Norbert Lechner -que es uno de los pocos teóricos que se han producidos en nuestro medio-, y han sido también centrales en los Informes de Desarrollo Humano en Chile, que, en cierta forma, pueden considerarse como la implementación de un programa de investigación lechneriano.

Bajo esta idea lo que se crítica es la concepción que el orden social es algo natural, y por ende fuera de la voluntad humana. No siempre es claro si la oposición entre naturaleza / voluntad es parte del instrumental conceptual lechneriano o de los discursos sociales criticados; pero su carácter determinante en estos análisis no puede discutirse.

Una característica interesante, y a primera vista completamente absurda, es que en la concepción ‘natural’, lo no natural es posible. La idea es que existe un orden social natural, pero que -a veces- los seres humanos intentan hacer otra cosa y producen, entonces, órdenes inferiores ‘anti-naturales’. Lechner, como ya dijimos, plantea la crítica a la idea de un orden social natural desde la idea que es un orden producido socialmente. Nosotros, más bien, nos centraremos en el insuficiente naturalismo de esta concepción.

Porque ella se basa en que es posible -pero errado- salir de la naturaleza. Ahora, si es cierto que lo social es parte de la naturaleza, entonces todo lo social es también parte de ella, y luego también es completamente natural. Por ende, cualquier orden que intenten crear los seres humanos es ‘natural’, o al menos ese intento es natural porque las acciones que componen ese intento también son parte de la naturaleza de la vida social.

En otras palabras, no tiene sentido oponer orden natural / orden construido. Construir a través de la voluntad consciente y política -el ideal de Lechner- es un proceso perfectamente natural para los seres humanos. Lo que el pensamiento lechneriano comparte con el pensamiento que critica es la oposición naturaleza / voluntad, como si los seres humanos (y lo que desean) fueran un orden aparte y distinto de la naturaleza.

Si reconocemos que esa oposición como tal no tiene sentido, que los seres humanos, todo lo que ellos producen, es tan parte de la naturaleza como cualquier otra cosa (estrellas, montañas, colonias de hormigas); entonces podemos reconocer una serie de características de la vida social que saltan a la vista.

(1) Que los seres humanos naturalmente producen órdenes sociales. De hecho, no hay forma en que es posible evitar que lo hagan. En ese sentido, está más allá de la voluntad humana.

(2) Que los seres humanos produce continuamente órdenes sociales, y que entonces de esa forma des-estructuran los órdenes que han creado. En oras palabras, no pueden mantener perfectamente estable el orden que han producido, y eso también es más allá de la voluntad humana.

Pero conste, a su vez, que lo que hemos dicho es sobre el proceso de producción de orden, no sobre los órdenes producidos. Pero nos equivocamos, en realidad ni siquiera son afirmaciones versan sobre los procesos como tal sino sobre sus resultados. En otras palabras, los procesos como tal y los órdenes en cuestión bien pueden ser analizados como productos de la voluntad.

Para ser más precisos, y más coherentes si se quiere: El proceso de construcción (y de de-construcción y de re-construcción) de órdenes a través de la voluntad human es un proceso natural e inexorable en las comunidades humanas.

Adam Smith y la Teoría del Valor Trabajo

Aunque es de hecho algo reconocido, no deja de ser fácil olvidar que la teoría del valor trabajo no fue inventada por Marx, sino algo que recogió de la tradición de la economía clásica inglesa. Al mismo tiempo cuando se observan los textos originales al respecto, y en particular La Riqueza de las Naciones de Smith no deja de ser interesante la función original de la idea -que, obviamente, no es la misma que cumple en el planteamiento de Marx.

Uno de los objetivos centrales de Smith en el libro mencionado es atacar la idea que la riqueza tiene que ver con el dinero. Desde la primera frase del libro:

The Annual labour of every nation is the fund which originally supplies it with all the necessaries and conveniences of life which it annualy consumes, and which consist lalways eitherin the inmediate produce of that labour, or in what is purchased with that produce from other nations (Primer párrafo de la Introducción).

Hasta toda la discusión con el mercantilismo que llena todo el libro IV (Of systems of political economy), donde es un refrán constante: ‘It would be too ridiculous to go about seriously to prove that wealth does not consist in money‘ (Libro IV, Capítulo I, p 550) o cuando critica la teoría del balanza comercial, al criticar la idea que la ganancia del comercio sea el balance de dinero que queda tras el intercambio; ‘By advantage or gain, I understand, not the increase of the quantity of gold and silver, both that of the exchangeable value of the annual produce of the land and labour of the country’ (Libro IV, Capítulo III, Parte II, p 615). No sería difícil conseguir más citas al respecto.

¿A que se debe recordar lo anterior? Simplemente que es en torno a ese tema, y para dejar en claro que la riqueza consiste en lo que se produce es que se introduce el tema del valor trabajo. El capítulo en cuestión es el V del Primer Libro y ya el título es suficientemente claro: ‘Of the real and nominal price of commodities, or of their price in labour and their price in money’.

Aquí es interesante comparar con nuestra concepción contemporánea de valor real y nominal. En nuestro caso es sólo un tema de tomar en cuenta la inflación y por lo tanto que al comprar una cantidad de dinero valga lo mismo. La preocupación por el cambio del valor del dinero a lo largo del tiempo (o entre países) también está en Smith. Lo relevante es la forma de solucionarlo. Porque Smith no usa la forma nuestra, que consiste en transformar todos esos valores a un valor monetario común. Sino que insistirá, tras mostrar las variaciones, que ‘Labour, therefore, it appears evidently, is the only universal as well as the only accurate measure of value’ (Libro I, Cap V, p 52). Y la razón es que nuestra solución no le sirve a Smith porque estaría todavía muy cerca de la idea que la riqueza es dinero.

Al fin y al cabo, el problema es que la idea que la riqueza no está en el dinero sino en el annual produce (en lo que el dinero puede comprar, que así también lo expresa en varias ocasiones), entonces ¿como podemos medir esa riqueza? El dinero, que tiene como uno de sus roles poner a todos los bienes en equivalencia, se presenta como la forma inmediata. Pero eso es lo nominal -y eso es central en el mensaje de Smith. Luego, aunque sea muy difícil de medir, lo básico es que ‘the real price of every thing, what every thing really costs to the man who wants to acquire, is the toil and trouble of acquiring it’ (Libro I, Capítulo 5, p 43). Y así nos dirá que cuando todo requiere menos trabajo para poder comprarlo todo es más barato -más allá de cómo se expresa en términos de precio en dinero.

En otras palabras, en Smith la teoría del valor trabajo es una teoría de la medición y comparación del valor, elegida en parte porque evita caer -de particular relevancia en el momento en que Smith escribe el texto- en la ilusión monetaria. Y de hecho, pensado de esa forma no deja de ser usada en la actualidad. En textos de análisis histórico no es raro encontrarse con traducciones del valor de una moneda en términos de trabajo (tantos denarios o dracmas eran lo que podía ganar un trabajador calificado en un día, y un talento equivale a lo que tantos días de trabajo de ese trabajador podía comprar etc.) Y precisamente se hace porque cumple con la función que Smith le asignaba: la de hacer comparaciones: Transformar sestercios en dólares o pesos siempre se desactualiza (¿de dólares de que año está hablando el autor?) pero el estándar de trabajo permite una comparación -o al menos, dar un sentido de lo que significaban esas cifras.

Al mismo tiempo esto permite diferenciar claramente uno de los cambios que se desarrollan en el pensamiento de Marx: No es parte de Smith la idea que sólo el trabajo humano es el que crea y produce valor. Que la naturaleza produce valor es algo que Smith menciona en diversas ocasiones. Comparando campesinos y granjeros con artesanos urbanos en relación a los ejércitos -no estando limitado por las diferencias disciplinarias modernas Smith pasa por temas muy diversos en el texto- nos plantea al pasar que ‘Without the intervention of his [del campesino] labour, nature does herself the greater part of the work which remains to be done’ (Libro V, Capítulo I, Parte I, p 884) .

Enfatizar la función de medición de la concepción del valor trabajo no es sólo un tema de historia intelectual, creo que es útil para entender ciertas situaciones contemporáneas. ¿La credibilidad, muchas veces de sentido común, de la ideas mercantilistas en la actualidad, pensemos en el tema del balance de comercio, no tendrá que ver con que la forma con que medimos la economía, el PIB, es finalmente una forma de medir usando el estándar del dinero? ¿Y con ello cae en la trampa de pensar que la riqueza es dinero que era precisamente la idea central contra la cual dirigía Smith su obra?

El proceso del análisis cualitativo

Terminando el curso de metodología cualitativa escribí algunas notas en torno al análisis cualitativo, y no estará de más adaptarlas para una entrada del blog.

Si uno quisiera, como a veces es útil al trabajar sobre metodología, reducir y simplificar al máximo las cosas, bien se puede decir que el análisis cualitativo está compuesto de 3 momentos, que procederemos a detallar brevemente a continuación:

  1. El momento de extracción de información.
  2. El momento de construcción de relaciones.
  3. El momento de interpretación del sentido.

El momento de Extracción de Información.

Este es un momento que es fácil pasar por alto, especialmente cuando se requiere poco tiempo para hacer el análisis (que es muy común en la práctica). El hecho que estemos predispuestos a encontrar significados en el habla de las personas, habilidad que  es consustancial a operar en la vida cotidiana, hace que el trabajo de extracción sistemática de la información cualitativa sea muchas veces no tomado en cuenta: Prontamente, y no pocas veces durante la ejecución del terreno, ya generamos interpretaciones y conclusiones. Por eso mismo, un momento de extracción sistemática es incluso más necesario: Al fin y al cabo, el problema no es tanto que la interpretación ‘inmediata’ esté equivocada como suele ser extremadamente incompleta.

Es necesario siempre una lectura atenta y minuciosa del texto (o imagen o mapa o lo que sea que estemos analizando). Párrafo por párrafo, oración por oración, y en general unidad de sentido por unidad de sentido. Una lectura minuciosa que debiera plasmarse, en lo posible, una codificación detallada. Si bien los códigos posteriormente normalmente se agrupan es relevante que en la primera lectura estar muy atento a las diversos significados que aparecen en un habla determinada.

En una sola oración hay muchos significados y oposiciones, y ver como cada una de ellas se desenvuelve y qué función ocupan en relación al texto es relevante. Pocas veces es posible analizar en profundidad y detalle cada elemento del habla de las entrevistas, pero en la medida en que uno se acerca a  ese nivel es que se entiende lo que el sujeto quiere decir. No hay que olvidar que una buena hipótesis de trabajo en relación al discurso analizado es que todo en el habla es significativo.

El momento de construcción de relaciones.

Un conjunto de códigos no representa un análisis. Los códigos están relacionados entre sí: Desde que se dicen conjuntamente hasta que tienen relaciones lógicas entre ellos (de oposición, de implicancia, de parte / todo etc.). Una vez obtenidos los códigos entonces el siguiente momento requiere hacerlos jugar entre sí.

Es importante en este sentido recalcar lo siguiente: Aunque estamos presentando los momentos de forma secuencial (primero se extrae, luego se construyen relaciones), en el análisis real existe retroalimentación: Bien puede ser que una razón por la cual no puedo relacionar un código con otros sea simplemente que éste no era completamente adecuado (algún matiz de significado se perdió al codificarlo de esa forma, se reunieron bajo un código frases que quizás sería mejor separar, y viceversa). Ahora, no hay que olvidar que la dificultad puede ser en sí parte del discurso, y por lo tanto el código bien puede mantenerse como tal -pero revisar cómo engarzan los códigos entre sí no deja de ser relevante en la tarea de entender el discurso que analizamos.

Cómo establecer relaciones entre códigos difiere entre las múltiples formas de realizar análisis. Ahora bien, las siguientes observaciones pueden tener alguna utilidad sobre estas relaciones

  • La relación puede ser directa (en una frase están los dos códigos) o indirecta (hay una relación de significado entre códigos que no aparece en la misma frase); sin embargo la relación siempre debe tener evidencia en el texto (que puede ser una o varias citas). Si el analista intenta ejemplificar la relación y tiene dificultades para hacerlo eso implica que es útil revisar esa relación
  • Las relaciones deben cubrir las diversas áreas. Si tengo varios esquemas de relaciones entre códigos en que cada uno cubre un área determinada es necesario hacer jugar esos esquemas entre sí. Lo que no resulta posible es simplemente dejar separados las diversas partes del discurso. En principio, una de las ideas que sirve como hipótesis de base es que estamos ante un discurso integrado.

El momento de interpretación de sentido.

Para poder, finalmente, comprender a un grupo es necesario interpretar el conjunto de lo que se dice. La pregunta central es ¿desde qué perspectiva, desde qué posición es razonable decir todas las cosas que se dicen? Si la idea del momento relacional es construir un esquema que permita ver cómo se integran los diversos elementos; la idea de la interpretación es encontrar el actor, el hablante que hace que esa integración sea posible. Implica pensar en quién sería el que construiría las relaciones de ese modo. En otras palabras, interpretar implica, de algún modo, pasar del texto dicho al actor que dice.

Esto implica dos cosas que es importante evitar cuando se realiza la interpretación:

  • La interpretación no es el resumen de lo dicho. Se podría decir que yo he ‘resumido’ la información que entrega el grupo en el momento de extracción (en el cual reduzco todo lo que se dice a un conjunto más reducido de códigos). En el resumen no hay un actor que ‘produzca’ el discurso, está el discurso producido; y la interpretación es, en cierto sentido, buscar al actor detrás del discurso, buscar al productor y no al producto. Es el trabajo del actor el que hace que un discurso sea un discurso (incluyendo en él sus coherencias y sus conflictos)[1].
  • La interpretación debe recordar quién es el sujeto que habla. Y es importante diferenciar entre lo que el sujeto expresa y lo que dice el sujeto de sí a través de sus expresiones. En particular, el sujeto expresa observaciones de diversas situaciones y actores. No es la tarea del analista ponerse al nivel de esas observaciones, porque de esas observaciones no tiene evidencia. Su evidencia es en relación al habla del sujeto, no de lo que el sujeto está hablando. Si un grupo X dice ‘lo que pasa es que en Y sucede ta cosa’ no sabemos nada de Y, sabemos de lo que X dice de Y. Por cierto, lo que dicen de Y puede ser perfectamente adecuado (los grupos que investigamos son tan observadores como el investigador y tienen sus propias formas de obtener conocimiento de la vida social); pero ello no es necesario. De hecho la incomprensión entre grupos (que lo que X dice Y no es necesariamente adecuado para entender a Y) es algo que regularmente ocurre en el campo de la vida social (y de lo cual los investigadores no están exentos, dado que ellos son también son unos X que dicen unas cosas de unos Y, sus investigados). Pero más allá de lo que el habla de X dice de Y, el habla de X siempre dice algo de X, y es eso lo que nos interesa.

Una admonición final.

Lo que hemos hecho es una simplificación, una burda simplificación, del proceso de análisis Nunca estará de más recordar que en el análisis real no se siguen estos momentos de forma secuencial, y que se confunden entre sí. Pero, recordando al Wittgenstein del Tractatus: a veces es necesario subir por una escalera que, una vez llegados al punto que nos interesa, resulta útil, pero para llegar la escalera era requerida. Esta diferenciación, por cierto, no pasa más allá de ser un intento de escalera.

Es central, creo, recordar en este sentido que el trabajo de investigación, si se hace bien, requiere un continuo ir y venir entre momentos. El significado y sentido no se lee directamente ni de una sola vez, sino que requiere ir observando y analizado continuamente y sólo volviendo sobre los propios pasos se puede, finalmente, obtener una interpretación que dé cuenta adecuada de lo que los sujetos dicen.

 


[1] Por cierto, esto, como todas las cosas que se han planteado en estas notas, implica una teoría. No estará de más mencionar que hay teorías que tienen la relación al revés: Que el discurso es el que produce al actor. Entrar en la discusión y crítica de ellas nos llevaría en otra dirección. Pero en aras de mencionar las diversas perspectivas no se puede dejar de mencionar dicha posición.

El Informe de la Comisión Internacional del Censo

Cómo la recomendación de la Comisión Internacional del Censo (disponible en esta dirección el informe completo) es muy distinta de la recomendación de la Comisión Nacional (disponible aquí) y que fue discutida en entrada en el blog en este link, en un caso se dice que los datos del censo 2012 se pueden usar y en otro se recomienda hacer un censo corto, no resultara banal comparar los análisis de las comisiones.

El análisis se puede dividir en los siguientes apartados:

Consideraciones que ambas comisiones coinciden.

Lo primero es que las dos comisiones coinciden en que las estimaciones realizadas en base a hogares no observados son inaceptables. Es la primera recomendación de la Comisión Internacional, página 59 y en el análisis se dice:

The imputation of housing units that were not observed in census field operations, and of then imputing households and persons to these imputed housing units, is not a generally recognized international practice. We find no mention of it in the United Nations Handbook on Population and Housing Census Editing (Informe Comisión Internacional, página 29)

Para un informe que está escrito en el estilo de funcionarios internacionales son palabras relativamente fuertes. En ese sentido, esa decisión -que es responsabilidad plena del anterior director del INE- ha quedado a firme como una decisión deplorable, y la salida del INE de la mencionada persona está plenamente justificada.

Lo segundo es que, aunque le da menos importancia y los desarrolla en mucho menor detalle, hay varias de las críticas que realizó la Comisión Nacional que se mantienen en la Comisión Internacional.

Por ejemplo en lo relativo a la ausencia de pre-test. El hecho que se realizara un cambio desde un censo de facto a uno de jure sin analizar mayormente las consecuencias de ese cambio fue uno de los puntos relevantes de la crítica de la Comisión Nacional y se repite en la Comisión Internacional. Esta dice:

Some aspects of field operations, such as the packing, delivery and return of census materials, are similar for de facto and de jure censuses. Other aspects, such as recruitment and training of the staff, field organization, monitoring and reporting during the enumeration are very different.
Implementation of a pilot census is a widely accepted practice and is internationally recommended (UN Principles and Recommendations paragraph 1.195). It is a main milestone to evaluate the quality of census operations (UN Principles and Recommendations paragraph 1.430).
A pilot census would have also supported to measure the level of participation and the response rate of the population, and the appropriate use of the concept of “usual resident” which characterize a de jure census (Informe página 21)

De hecho, en las recomendaciones para futuros censos se puede leer implícitamente varias críticas a la forma en que se realizó el censo por parte de la Comisión Internacional. Por ejemplo que el período de terreno no debiera superar 2 semanas (página 57) o que se de un tiempo relevante para planificar el Censo (página 60) no dejan de ser, finalmente, críticas.

Temas abordados en mayor profundidad por la Comisión Internacional

La Comisión Internacional dedica un largo espacio al procesamiento de datos para concluir que, en general, este no presenta problemas mayores (y fue uno de los pocos datos que aparece en el comunicado de prensa): Que

The report on the data capture prepared by INE indicates a data capture error rates of  0.14% for housing unit data and 0.29% for person data. These rates indicate good quality of data capture (Informe, página 58).

Ahora el caso es que eso no fue parte de los elementos de los cuales estaban centradas las dudas -sobre la calidad de las cédulas recibidas-. Que la Comisión Internacional, al revisar todas las etapas, registrara lo anterior es parte de su tarea; pero no deja de ser necesario puntualizar que la discusión del Censo verso sobre otros motivos.

Otro aspecto en que la Comisión Internacional pone más atención es en relación a las medidas correctivas que el INE ha desarrollado (o empezado a desarrollar) sobre el Censo, Y la conclusión en ambos casos es que se recomienda que ellas se detengan: Tanto la encuesta post-enumeración como la muestra de viviendas no entrevistadas. Es curioso, a decir verdad, que en ambos casos la Comisión es bastante crítica de las decisiones técnicas y metodológicas del INE. Por ejemplo, “INE developed the PCS estimation methodology which is not statistically defensible” (página 45 del Informe). No deja de ser curioso porque la misma institución que desarrolla estimaciones que no son defendibles sí parece ser capaz de realizar un censo aceptable sin por ejemplo tener una planificación adecuada (que es lo que dice la Comisión sobre el Censo 2012). Por decir lo menos, no es un informe que -de hecho- entregue mucha confianza sobre las decisiones del INE a este respecto.

Discrepancias entre comisiones.

Recordemos que aquí nos estamos centrando en el análisis no en las recomendaciones, por lo que no abordaremos la última discrepancia. En términos de análisis la discrepancia más importante dice relación con la tasa de omisión: La Comisión Nacional la estimó en un 9,3 usando estadísticas vitales.

La Comisión Internacional dice:

Demographic equation estimates of the total population of Chile as of the 2012 census may be made using vital registration numbers of births and deaths (it appears that international migration numbers may be too small to have an appreciable effect). Lacking the requisite evaluation of data quality, however, these estimates do not, based on international recommendations, provide a statistically sound basis for estimating 2012 census omission (Informe página 49)

La Comisión Internacional plantea que en general en Chile se estima que las estadísticas vitales son precisas y registran de manera exhaustiva los nacimientos y muertes. Pero que, en realidad, no hay un estudio que lo avale. Lo cual suena razonable.

Lo que quizás no es tan razonable son las conclusiones que sacan a partir de ello. Porque el problema es que la Comisión Internacional recomienda usar el censo sin tener evidencia alguna que el censo cumple con estándares de calidad, y el hecho que no sea posible calcular la omisión es ya un problema importante. Que el procesamiento de datos hecho muestre que las cédulas respondidas fueron trasladadas adecuadamente a las bases no implica que el Censo fue bien hecho cuando los problemas están puestos en otros elementos (sobre los cuales, de hecho, la Comisión Internacional no se pronuncia, como todos los problemas en el proceso de terreno que documentó la Comisión Nacional).

Más aún, como puro razonamiento técnico tiene debilidades. Porque el nivel de omisión que se calculo (9,3%) tiene consecuencias. La estimación es tan alta que para que ese calculo no indicara problemas en el censo (i.e que la omisión estuviera en estándares normales), las estadísticas vitales en Chile debieran ser extremadamente inexactas.  Una cosa es que no exista un estudio que establezca el nivel de validez de las estadísticas vitales, otra cosa es aceptar como posible una situación bajo la cual no tengan casi nula validez. En otras palabras hay que optar por dos posibilidades: (a) las estadísticas vitales están meridianamente bien hechas, y el registro de nacimientos y muertes opera razonablemente o (b) el Censo 2012 es plausiblemente válido. Pero no se pueden tener ambas cosas. De más está decir que en mi no muy comisionada opinión, la alternativa (a) me parece más probable.

En cualquier caso, uno observa una diferencia sustancial entre las comisiones en el estilo del análisis. Un caso específico puede observarse en lo relativo a la capacitación Así la Comisión Nacional desarrolla un análisis específico de las dificultades de capacitación, realizando una estimación del número de encuestadores no capacitados. La Comisión Internacional hace una observación similar, pero sintetizada al punto de ser casi críptica:

Even with 20% of staff planned as reserve, in some areas of the country many enumerators resigned during the enumeration period and some local census offices faced difficulties to replace them (Informe página 21)

Esa diferencia en el nivel de exhaustividad del análisis, y de la presentación de él, es recurrente a lo largo del informe de la Comisión Internacional.

En conclusión.

En última instancia, creo que las Comisiones tienen recomendaciones distintas porque sus criterios eran diferentes. El baremo de ‘la información es útil’ es más bajo que usar como criterio el ‘la información es válida’. La Comisión Internacional se centró en la primera pregunta, la Comisión Nacional en la segunda. Los antecedentes para decir que el Censo es válido son escasos y débiles; pero ello no obsta para que, con mucho cuidado, algo de utilidad tengan.

NOTA: Tengo la impresión, pero esto es puro mal juicio mío, que la diferencia es una de expectativas también. La Comisión Internacional no nos evalúo a nosotros con un baremo muy alto -‘de todas formas algo se puede usar’. No estoy seguro que  hubieran evaluado con la misma mano si hubieran encontrado estos problemas en un Censo de país desarrollado. Pero, claro, al fin y al cabo; un país desarrollado no llama a una Comisión Internacional para que le digan como se hace el Censo.

 

Las Encuestas tras la elección de Noviembre del 2013.

Mi idea de hacer una entrada sobre el temas de las (vilipendiadas) encuestas y los resultados de la elección del domingo 17 se facilitó enormemente por el hecho que Kenneth Bunker en TresQuintos.com, al evaluar los pronósticos de la elección (incluyendo el suyo) mostró algunos cuadros resumen de lo que sucedió con las encuestas.

El cuadro más relevante para analizar la situación de las encuestas es el tercero de la entrada que comentamos que es el siguiente:

Errores de encuestas en elección

El pronóstico de TresQuintos se basa en un modelo de agregación de los resultados de encuestas (usando un modelo bastante más complejo que un simple promedio en cualquier caso, se usa Bayes, simulaciones de MonteCarlo, se ajuste por varios parámetros etc.). Ahora, dado que usa las encuestas como insumo y no es un pronóstico independiente, no sirve para responder la pregunta de si las encuestas lo hicieron bien, que es lo que nos interesa aquí.

El dato ‘predicho’ por cada encuesta corresponde al porcentaje de preferencia por candidato sobre el total de preferencias declaradas en esa encuesta, que es equivalente a cómo funciona el sistema electoral: En el que sólo se cuentan los votos válidamente emitidos para calcular porcentajes (En ese sentido, el valor CEP de Bachelet es de un 60% por ejemplo). Se puede discutir si esto es o no adecuado, pero dado que replica cómo funciona el sistema no parece ser completamente inadecuado.

Más allá de los preliminares, podemos observar que la situación no es tan compleja como pudiera parecer a primera vista. Conecta se mantiene dentro o cerca del margen de error en todos los casos, Opina y La Segunda tienen errores relevantes en un candidato (Bachelet y Matthei respectivamente). Por otro lado, las encuestadoras grandes sí tienen diferencias importantes -CEP e Ipsos. Ahora bien, dado que hay una diferencia entre la fecha de las encuestas y la fecha de la elección, una diferencia de resultados es esperable porque entre medio bien puede cambiar la realidad (i.e que a la fecha de la encuesta la diferencia con el valor real era menor, y que los altos valores de diferencia sean además producto de una diferencia en la realidad). En otras palabras, los resultados no quieren decir necesariamente que CEP estuviera equivocado en la encuesta de Octubre.

Lo que sí quieren decir es que (a) efectivamente resulta posible tener buenos estimadores de una elección bajo voto voluntario y que (b) queda todavía harto trabajo que hacer para disminuir los errores. Pero esto requiere hacer investigación metodológica, en por ejemplo ¿que tipo de preguntas son adecuadas para filtrar votantes? Dado que las distintas encuestas no hicieron las mismas preguntas para ello bien serviría para evaluar cual funciona mejor -aunque, claro está, requeriría que los cuestionarios fueran públicos, lo que no siempre ocurre, pero parece ser -si queremos mejorar las estimaciones- necesario.

Finalmente, un excurso: Un modelo de agregación bien hecho debe dar menores errores que cada encuesta en particular. Recordemos que cada encuesta extrae una muestra de todas las muestras posibles, y que si no hay sesgo y son aleatorias el promedio de la distribución de todas las muestras es equivalente al promedio del universo. Ahora bien, agregar es análogo a extraer más muestras de esa distribución y por lo tanto a acercarse al promedio del universo. Lo anterior, por cierto, que simplifica mucho del trabajo de un modelo agregado (en que hay que corregir por los sesgos, tomar en cuenta varios parámetros, y por cierto no es exacto decir que son varias muestras del mismo universo); pero nos explica la utilidad y relevancia de ese trabajo: Si se construye un buen modelo, entonces tenemos una alta probabilidad de tener un mejor pronóstico que el que entrega cada encuesta por separado, que es lo que interesa finalmente.