Cómo mentir con estadísticas (judiciales)

por Agustín Eugenio Acuña

Autor

Agustín Eugenio Acuña

Publicado el

2021-10-04

Tags

TransparenciaEstadística judicial

Los datos sin contexto, comparaciones ni enfoque cualitativo oscurecen a la Justicia.


La presentación seria de las cifras de productividad de los Tribunales demanda más explicaciones que la mera exposición de cifras debido a la complejidad y a la especificidad de los trámites procesales. En el último tiempo se tiende a impactar con números que, con el debido análisis, no necesariamente implican avances y sí son susceptibles de alimentar las dudas acerca del objetivo de la difusión de las estadísticas.

Algunos poderes judiciales de la Argentina van adquiriendo la sana costumbre de compartir datos estadísticos sobre su trabajo. Cada vez es más habitual leer sobre números de causas ingresadas, sentencias dictadas, audiencias realizadas, etcétera. Sin embargo, las cifras suelen aparecer desprovistas de contexto y de comparaciones, y, al hacer hincapié en lo cuantitativo, se olvidan de lo cualitativo. Los datos así presentados llevan a pensar que todo queda en una estrategia de marketing para mejorar la alicaída imagen de los Tribunales.

Efecto ancla y contexto

Imagine que lee en el diario o en la página web del Poder Judicial de su jurisdicción la frase “el año pasado se dictaron X sentencias”. La información es presentada como si fuese un gran logro, pero, realmente, ¿lo es?

Pensemos. La cantidad, así sola, no nos dice mucho. En realidad, no nos dice casi nada. ¿Es un buen dato o un mal dato?

Tendemos a caer en el sesgo del efecto ancla. Cualquiera sea el número que sea X, confiamos en la información y nuestra primera reacción es creer que se ha trabajado fenomenalmente.

Sin embargo, no debemos incurrir en la trampa cerebral, sino que hay que buscar el contexto de “X” con las preguntas correctas. Está bien, dictaron “X” sentencias, pero lo importante es saber cuántas sentencias deberían haber dictado. ¿Tienen sentencias pendientes? Porque si tienen, el valor de “X” cambia: deberían haber dictado “Y”, pero dictaron “X”.

Sería equivalente al nene que viene contento y le cuenta al papá que corrió cinco vueltas a la manzana, pero no dice que el objetivo del ejercicio era correr 10. El nene está contento con su número. Su papá también. Ambos desconocen, uno a propósito y el otro involuntariamente, el contexto del número. Solo el profesor de gimnasia sabe la realidad.

En definitiva, la perspectiva del dato que se presenta de forma amigable, cambia radicalmente con un poco de análisis y más información al respecto: se está por debajo del objetivo.

Las comparaciones son odiosas y las moscas también

Generalmente nuestra frase va acompañada por otra como la siguiente: “esto significa un aumento del Z% en comparación con el año pasado”. Nuevamente se nos proporciona un dato que evidencia una mejora. ¿Es así?

No necesariamente, dado que, como bien dice Miguel de Cervantes, las comparaciones siempre son odiosas. Si en el segundo año se dictaron sentencias que estaban pendientes del año pasado, la comparación pierde sentido y evidencia que la institución se dedicó a sacar trabajo atrasado. Sería equivalente al empleado que vuelve luego de una licencia prolongada y hace todo el trabajo que se acumuló en su escritorio, que nadie hizo en su ausencia. Seguramente su aumento será un Z% similar al de esta frase.

No seamos tan quisquillosos. Confiemos en que la comparación en este caso se hizo necesariamente entre ambos años con las sentencias que debían dictarse, la situación ideal. ¿Se alcanzó ese objetivo con los mismos recursos? Si fue así, realmente ese Z% simboliza un aumento de eficiencia. En el caso contrario no lo es. Me explico. Si se dictó un Z% más, pero se aumentaron el número de jueces, funcionarios y empleados en igual medida, no hay aumento de eficiencia alguna. Distinto sería si se mantuvo ese número. Con los mismos recursos, se obtuvo un mejor resultado. Es el equivalente al ejemplo de los medios para matar una mosca. Puedo matar una mosca con una bazuca (es eficaz), pero mejor hacerlo con un matamoscas (eso sí es eficiente).

Esto a veces pasa inadvertido. Hace poco en mi provincia se anunció que el año pasado se duplicaron las horas de audiencia en el fuero penal. Al mismo tiempo, se comunicó que se había bajado el promedio de resolución de causas de 127 días a 122 días. O sea, se duplicaron las horas de trabajo, pero se bajó solo un 3,9% aquel indicador, es decir, se mantuvo casi inalterado. ¿Eso fue eficiencia?

Los promedios sobre qué datos y cuáles elegimos

También pueden encontrarse frases como “el promedio de resolución de una causa es de N días”. Los promedios son grandes jugadores de la estadística. Sin embargo, aplicados en el ámbito judicial pueden traernos problemas. Si no conocemos el conjunto de datos, es difícil valorar el promedio. ¿Qué causas se tomaron en cuenta? ¿Se juntaron las causas que están sometidas a procesos ordinarios más largos con las que tramitan en forma sumarísima, más expeditamente? Si es así, claramente tendremos un promedio tergiversado, puesto que el número tenderá a ser menor dado que, como bien se dice, estamos comparando peras con manzanas.
Pero, además, supongamos que la frase realmente evidencia una comparación de, por ejemplo, procesos ordinarios (y nos olvidemos de las diversas complejidades dentro de esta categoría, en aras de la simplificación). Aun así, como bien dice Darrell Huff, el promedio no especificado no representa nada. ¿“N” días qué es? ¿Es la suma de los días de cada causa dividida en el total de causas (media)? ¿Es el número medio del conjunto de causas (mediana)? ¿Es el número de días que más se repite en las causas (moda)? Todos son promedios en forma vaga, como dice Huff, y no estamos mintiendo cuando usamos uno u otro.

La calidad, la gran ausente

Finalmente, tenemos que completar el cuadro con la ausencia del enfoque cualitativo en la presentación de los datos. Volviendo al primer ejemplo, la perspectiva cambia si nos enteramos que, si bien dictamos “X” cantidad de sentencias, de las apeladas, todas fueron revocadas. Claramente algo está fallando ahí. Por supuesto que es opinable (ciertamente lo será para los jueces de primera instancia) que el estándar de calidad lo constituya la cámara del fuero. Pero, ¿hay otro? ¿Se pensó otro? ¿Cuál?
Volvamos al ejemplo de la duplicación de las horas de audiencia. ¿Eso significa que hay más audiencias o que las audiencias fijadas fueron de mayor duración? ¿Fueron de mayor duración por la complejidad de lo debatido o por las demoras en cada caso?

Sólo un paso

Entre que existan datos sobre el trabajo del Poder Judicial y no existan, lógicamente es mejor que existan. Sin embargo, eso es solo el puntapié inicial. No nos podemos quedar celebrando la transparencia (que, dicho sea de paso, es una obligación) por la transparencia misma. Es sólo un paso. La mejora de los datos estadísticos de los poderes judiciales es fundamental para debatir seriamente políticas públicas sobre la Justicia.

#BIO
Defensor Oficial en lo Civil y del Trabajo itinerante en los centros judiciales Concepción y Monteros (Tucumán). Doctor en Humanidades(Área Derecho). @agustineacuna en Twitter

Las opiniones y puntos de vista de esta nota son responsabilidad de su autor/a y no necesariamente reflejan la posición de la Asociación Civil por la Igualdad y la Justicia

TransparenciaEstadística judicial

Artículos relacionados

  Cargando artículos