Entradas etiquetadas como ‘CSI’

Esta es la gran diferencia entre el CSI y la vida real

El asunto de Brandon Mayfield que conté ayer es un caso de ciencia forense, pero también es un caso de ciencia sin apellidos. Con frecuencia me refiero aquí a ciertas situaciones en las que se desprecia el conocimiento científico en cuestiones como las vacunas, la homeopatía o el cambio climático. Pero consecuencias igualmente graves tiene lo opuesto, creer que la ciencia puede aportar más de lo que realmente puede, y basar en ello decisiones tan trascendentales que pueden llevar a alguien a prisión, o incluso al corredor de la muerte en según qué países.

Como suelo decir aquí, la ciencia no es infalible. Aunque, como suelo añadir, la ciencia se refuta con ciencia, y no con folclore, creencias o intuición. Pero no es lo mismo un campo como las vacunas o el cambio climático, donde muchos científicos han trabajado mucho durante muchos años desde muchos enfoques distintos y han llegado a una misma conclusión mayoritaria, que una prueba individual practicada por un laboratorio individual sobre una muestra individual. Cuando digo una, entiéndase que igual da dos o tres; en todo caso no hay una población estadísticamente significativa.

No es que la ciencia forense se equivoque; sí pueden equivocarse las personas que la practican al interpretar la solidez de sus conclusiones. Y así pueden atraer a su equívoco a quienes toman las decisiones judiciales, ya sean jueces o jurados, a quienes no se les supone ni se les exige ningún grado por encima del analfabetismo científico.

CSI: ¿la verdad está ahí dentro? Imagen de CBS.

CSI: ¿la verdad está ahí dentro? Imagen de CBS.

Pero como no tienen por qué aceptar la validez del argumento solo de mi palabra, aquí les traduzco las del Consejo de Asesores en Ciencia y Tecnología del presidente de EEUU (PCAST, por las siglas en inglés), que en un informe publicado hace un año escribían esto:

Más allá de este tipo de limitaciones con respecto a los métodos fiables en las disciplinas forenses de comparación de rasgos, las revisiones han descubierto que los testigos expertos a menudo sobreestiman el valor probatorio de sus pruebas, yendo mucho más allá de lo que la ciencia relevante puede justificar. Por ejemplo, los examinadores testifican que sus conclusiones son «cien por cien ciertas», o que tienen una probabilidad de error «cero», «virtualmente cero» o «despreciable». Sin embargo, como muchas revisiones han notado […], estas afirmaciones no son científicamente defendibles: todas las pruebas de laboratorio y análisis de comparación de rasgos tienen tasas de error que son distintas de cero.

Es decir, que según los expertos del PCAST, basándose en una concienzuda revisión de numerosos casos en EEUU (y el resto del mundo no tiene por qué ser diferente), los peritos científicos que testifican en los juicios a menudo tienden a otorgar un valor de certeza absoluta a sus análisis que no se corresponde con la realidad.

Todo el que tenga conocimiento de cómo funciona la ciencia sabe que los estudios científicos discuten sus conclusiones con expresiones del tipo «nuestros resultados sugieren…» o «los datos son compatibles con…», siempre con su buena guarnición de subjuntivos y condicionales. Muy raramente, si es que alguna vez ocurre, un estudio científico afirma demostrar algo categóricamente y sin resquicios. Sencillamente, esto no pasa. Y en cambio, según los expertos del PCAST, parece que este tipo de lenguaje dogmático tan impropio de la ciencia sí es habitual cuando un perito científico sube al estrado.

Una aclaración: cuando estos expertos se refieren a análisis de comparación de rasgos, hablan de las técnicas más habituales de la ciencia forense que vemos en telediarios, películas y series como CSI: estudio microscópico del pelo, análisis de huellas (también dactilares), mordeduras, pruebas de ADN… En resumen, todo.

Algunas de estas pruebas quedan pulverizadas en el informe, como el análisis de marcas de mordeduras, que según el PCAST «no reúne los estándares científicos de validez en sus fundamentos, y está muy lejos de reunirlos». En el caso de las huellas de calzado, los expertos descubren que «no existen estudios empíricos apropiados» para justificar su fiabilidad real, por lo que «no es científicamente válido».

Tampoco se salvan los exámenes balísticos, otro clásico del género. En este caso, dice el PCAST, no hay datos suficientes: «actualmente no alcanzan los criterios de validez porque solo hay un único estudio apropiadamente diseñado para medir su validez y su fiabilidad estimada».

¡Tenemos una coincidencia! Imagen de Ubisoft.

¡Tenemos una coincidencia! Imagen de Ubisoft.

Pero es que en el caso de las huellas dactilares, que solemos interpretar como la prueba incuestionable de culpabilidad, el informe apunta que la tasa de falsos positivos –identificaciones erróneas, como en el caso de Mayfield– puede llegar a un caso de cada 306 según un estudio; y según otro, nada menos que a ¡un caso de cada 18!

Multiplíquenlo por la cifra que les parezca adecuada para estimar el número de juicios que se celebran a diario en el mundo; sea cual sea la cifra real, la conclusión es la misma: todos los días las huellas dactilares pueden estar acusando a una multitud de inocentes. Y como consecuencia, dejando a los culpables en la calle. Dado que en países como el nuestro todos cedemos generosamente nuestras huellas al estado cuando tramitamos el DNI o el pasaporte, cualquiera podríamos vernos algún día en un trance como el de Mayfield.

Por supuesto, hoy la regla de oro es el ADN. Pero también en este caso hay que diferenciar entre muestras simples individuales, como por ejemplo el esperma de un violador recogido del interior de la vagina, y muestras complejas como las tomadas en el escenario de un crimen por el cual ha pasado un número incontable de fuentes de material genético, no solo humanas.

En este segundo caso, el informe considera que los métodos a menudo utilizados actualmente para analizar muestras complejas «no son válidos en sus fundamentos» porque «pueden llevar a resultados erróneos». Pero incluso en el caso de una sola fuente, para el cual el análisis de ADN sí se considera «un método válido y fiable», los expertos advierten: «en la práctica no es infalible. En las pruebas de ADN los errores pueden ocurrir y ocurren».

Los autores del informe aluden sobre todo a errores humanos o interpretaciones equivocadas de los resultados. En la vida real, a diferencia de lo que muestran la tele o el cine, las máquinas de análisis de ADN no devuelven la foto de carné de un tipo, sino datos que deben procesarse con los programas adecuados y compararse con las muestras pertinentes para al final obtener algo que no es un veredicto de culpabilidad o inocencia, sino una cifra estadística.

El problema con la estadística es que tendemos a interpretarla en términos de fe; claro que el problema no está en la estadística, sino en nosotros. Compramos el Euromillones porque creemos que va a tocarnos. Pero salimos cada día a la calle sin casco porque de ninguna manera creemos que vaya a caernos un meteorito encima. Y sin embargo, como ya conté aquí, es 87 veces más probable morir por el impacto de un asteroide que ganar el Euromillones.

Los miembros del PCAST ponen un ejemplo muy ilustrativo. Imaginen un test que tiene una tasa de falsos positivos de 1 de cada 100. Desde un punto de vista probabilístico puramente intuitivo, un juez y un jurado tenderán a inculpar al acusado si el test resulta positivo.

Pero si surge ese testigo providencial, tan típico de las películas, asegurando haber visto al acusado a la hora de los hechos a más de mil kilómetros del lugar del crimen, la balanza justiciera se inclina hacia el lado contrario: lo más probable es que se trate precisamente de ese único caso de cada cien. Con una misma prueba forense e idéntico resultado, la diferencia entre la libertad y la cárcel depende de un testigo que en la vida real, a diferencia de las películas, tampoco suele aparecer.