Presunción de inocencia
Hace unos 39 siglos se esculpió el ‘Código de Hammurabi’ (conservado en el Louvre), que es considerado como la primera codificación conocida de derechos y obligaciones humanos. Como referencia, quizá más familiar, Moisés bajó del Sinaí, con las Tablas de la Ley, 5 ó 6 siglos después.
Hace unos 75 años, Isaac Asimov acuñó las ‘Tres Leyes de la Robótica’ —luego evolucionadas a la Roboética— codificando derechos y obligaciones de robots, demonios y otro software de Inteligencia Artificial.
En 2002 Rodney Brooks, director del MIT Artificial Intelligence Laboratory pronosticaba que —igual que históricamente se han ido reconociendo ciertos derechos (p. ej. a un trato digno) a muchos animales y, sobre todo a las mascota—, es plausible que surjan corrientes de reconocimiento de derechos a algunas de esas máquinas, sobre todo a las más antropomorfas y a las que ‘convivan’ en nuestros hogares —robots domésticos más humanoides que las nuevas aspiradoras.
Si bien muchos profesionales de los SI (sistemas de información) y las TIC (tecnologías de la información y las comunicaciones) estamos sujetos —por convicción y/o adhesión— a un código ético profesional, a ciertos compromisos respecto al uso de los SITIC, eso no obliga en general a otras personas.
Y eso permite un pernicioso, generalizado y continuado linchamiento impune de los SITIC, e indirectamente de sus profesionales. Pernicioso, porque nos impone un sambenito a los profesionales; —pero sobre todo— porque puede desembocar en un fallo sistémico. Me explicaré.
Pero antes, descendamos a lo concreto. Creo que las siguientes referencias son autoexplicativas y se aceptarán como meros botones de muestra de algo mucho más generalizado.
«La juez sustituye la fianza de un millón de euros al alcalde de Seseña por otra de 10.000. Emite un auto de rectificación para aclarar un error informático debido a "introducir más dígitos de los que procedían"». [1] [Las negritas son mías].
«La patronal fotovoltaica Asif pidió un análisis a una empresa, que concluyó que podía tratarse de que el contador considerara que las 12 de la mañana eran las 12 de la noche o fallos informáticos.» [2]
«La lista de premiados (Premios Max de la SGAE entregados el 3 Mayo de 2010), publicada en la página web de la SGAE "por un error informático"». [3]
«La primera crisis del euro
EE UU busca el ordenador fantasma
Los reguladores bursátiles descartan el factor humano como causa del pánico que sacudió a Wall Street”
(SANDRO POZZI | Nueva York 07/05/2010) » [4]
«No podemos permitir que un error tecnológico espante a los mercados y provoque pánico" [desplome bursátil], señaló el congresista demócrata Paul Kanjorski. El propio presidente, Barack Obama, pidió aclarar el desplome para "evitar que algo así vuelva a suceder"». [5]
«Las máquinas se apoderan de Wall Street y provocan el pánico en el mercado» SANDRO POZZI - Nueva York - 07/05/2010 [6]
« Un senador aprovechó ayer para reclamar que se ponga coto a las máquinas en las operaciones bursátiles. El demócrata Ted Kaufman denunció que se había puesto de manifiesto una vez más "el potencial de los ordenadores gigantes de alta capacidad para alterar el mercado y crear el caos" en lo que denominó "la batalla de los algoritmos". Kaufman presentará una enmienda a la ley de reforma financiera para que se endurezca la regulación.»
«Aguirre envió cartas con errores de ortografía a profesores de Madrid». [7]
«En cambio, la presidenta ha negado tajantemente que la carta que envió a los docentes, pidiéndoles un "mayor esfuerzo" por la crisis, tuviera faltas de ortografía, como se ha demostrado. Aguirre ha atribuido la ausencia de algunas tildes a los "duendes de la tecnicalitis [sic]" informática, que hicieron que la empresa de las nóminas "escaneara" mal la misiva y olvidase "teclear los acentos"». [8]
Como no parece probable que ni Hammurabi ni Moisés vayan, a estas alturas, a ocuparse de este tema, nos incumbe a los profesionales —sobre todo a través de nuestras asociaciones— intentar reencauzarlo.
* * *
Para reencauzarlo parecen obligadas ciertas reflexiones, actitudes y actuaciones.
En primer lugar, reconocer que todo error es humano.
Lucius Annaeus Seneca —cordobés, coetáneo de Jesucristo, tutor y consejero de Nerón— ya afirmó que «errare humanum est perseverare diabolicum» [errar es humano y perseverar diabólico].
Lo que fue parafraseado —y convertido en eslogan—, por Alexander Pope (1688-1744) [más papista que el papa], en su famoso verso: «To err is human, to forgive divine» [errar es humano, perdonar divino]. [9]
El famoso HAL 9000 [10] no era tan perverso como parecía. Simplemente fue programado así (‘heurístico-algorítmico’ [¡signifique esto lo que signifique!]). Pero eso era ciencia ficción: intentemos mantenernos en la realidad.
En segundo lugar, aceptar que
“.... sin duda es un abuso del lenguaje ... y si ... [el]... error lo hubiesen tenido hace 20 años, sería un error "mecanográfico" o hace 100 años, un error "Plumo-gráfico" ... la cuestión es tipificar el error sobre el instrumento y no sobre la persona que lo comete ...pues al final, como todos los errores, es humano(gráfico). [11]
En tercer lugar, aceptar que, pese a todo, hay / ha habido muchos [¡demasiados!] “errores informáticos / tecnológicos”, esto es, errores humanos en materias informáticas / tecnológicas. En algunos de los cuales he/(¿quizá hemos?) incurrido por omisión o acción.
El excelente reciente «artículo de Darren Dalcher en Novática 200, ... cita algunos importantes errores informáticos que efectivamente fueron tales. Como caso más relevante, al final de la sección 2 se dice que el fracaso en la introducción de un sistema informático en la Oficina de Recaudación del Reino Unido causó que no se enviasen recordatorios a los asalariados sobre que tenían que actualizar sus contribuciones al sistema nacional de seguros. Y que ahora 10 millones de personas sufren recortes en sus pensiones debido a eso!!» [12]
Otro proyecto valorado por Darren por el impacto del proyecto en la fase de producción en “un sistema de envío de ambulancias que fue entregado a los usuarios (al tercer intento) y falló posteriormente en producción dando lugar a potenciales pérdidas de vidas humanas”.
Dice Darren [13]: “La práctica contemporánea de desarrollo de software se caracteriza sistemáticamente por proyectos descontrolados, entregas retrasadas, presupuestos excedidos, funcionalidad recortada, y una calidad cuestionable, lo que a menudo se traduce en cancelaciones, reducción del alcance, y un ciclo significativo de revisiones”.
Y continúa: “El resultado neto es una acumulación de desperdicios, medidos tradicionalmente en términos financieros. Por ejemplo, en 1995, los proyectos fallidos en EEUU costaron ... un total de 140 000 M USD; ... en 1996, 100 000 M USD; ... en 1998 75 000 M USD”.
A mí, en este artículo, me interesa resaltar un aspecto que el artículo citado de Darren (y toda la excelente Monografía de la que forma parte) tratan, pero sólo de forma secundaria: el de las pérdidas y molestias ocasionadas por el uso de sistemas una vez que fueron dados de alta para su explotación.
Incluso, cuando no hay evidencia de defectos o fallos en el proyecto, pueden evidentemente darse fallos en la explotación.
En 2007 el Ayuntamiento de Torrelodones (Madrid) [14] –por lo que parecía tratarse de un simple error administrativo -emitió dos veces recibos (distintos) pro-forma para el cobro de la ‘tasa de recogida de basura’.
La empleada / funcionaria encargada del tema me contesta al teléfono (a la tercera llamada; en las anteriores ‘estaba desayunando’) y reconoce que sí, que lo que me acontece es un error -“parte de un error masivo”- y que «... nada, que arreglado». Cuando entonces le pido confirmación fehaciente de que lo mío (ya que no lo de todos), ha sido corregido, como error masivo del Ayuntamiento, que es de su res- ponsabilidad, me dice imperturbable que ¡para eso, que presente un recurso!, y que entonces se revisará mi duplicado.
O sea que unos miles de recibos erróneos se corrigen con unos miles de recursos administrativos.
Mientras, yo sigo teniendo dos recibos pro-forma enviados por el Ayuntamiento: el correcto y el erróneo. ¿O serán los dos erróneos? ¿Y los demás masivos? Afortunadamente, pagado que fue uno de los recibos, el silencio administrativo condonó (espero) el otro.
¡Séneca tenía razón: perseverar en el error es diabólico!
En cuarto lugar, está la cuestión del huevo o la gallina (o más académicamente, de la recursividad).
Me parece evidente, a estas alturas de este breve e informal artículo, que todos debemos aceptar que en la raíz de todo error ‘informático’ hay un error ‘humano’.
La cuestión ahora es de trazabilidad y —sobre todo— de imputabilidad (chargeability).
¿En qué estrato(s) organizativo(s) radica la responsabilidad por el error?
En quinto lugar, está la cuestión del temido y temible ‘fallo sistémico’.
Parece mentira que los denunciantes de ‘fallos informáticos’ (políticos o periodistas, muchos de ellos — por lo que no es tan sorprendente—; profesionales, en otras ocasiones —más difícil de comprender—) no entiendan o ignoren el principio básico de que NUNCA se debe culpar al sistema. (¡Aunque fuese verdad!).
Culpar al sistema es concitar un ‘fallo sistémico’: la profecía que se autocumple.
Los protocolos de actuación de portavoces de células de emergencia, entidades en crisis, y —a mucha menor escala— los de los ‘chaquetas rojas’ (o ‘verdes’ o ‘azules’) en aeropuertos u otros servicios públicos coinciden: siempre hay que decir: i) que las causas se desconocen y se están investigando; y ii) que se ha debido probablemente a un fallo humano: NUNCA a un FALLO DEL SISTEMA.
Reconocer la causa humana es atenerse a la verdad, pero además es políticamente interesante: ¿Si falla el sistema, qué nos queda?
De hecho, ciertos manuales de gestión de incidentes recomiendan acusar en público (incluso en falso, o sin suficiente información) a algún empleado y luego disculparse ante los vejados y compensarles de algún modo).
En sexto lugar, reconocer que «un sistema informático (por el hecho de estar construido por humanos y –ojo- especificado o solicitado por humanos) es imposible que sea infalible». [15]
En séptimo lugar, recordar que, por una parte, los errores (humanos) pueden no ser indeseables sino tolerados e incluso buscados –como en ciertas fases del proceso científico o técnico: prueba y error–; y por otra que (como se sabe en gestión de la calidad) no todo error acarrea necesariamente una disfunción o un defecto.
Los defectos o fallos son discrepancias entre producto / proceso y especificaciones / estándares (o características deseables, incluso no especificadas).
“Un «defecto» [/fallo] es una instanciación individual de alguna no conformidad con algún requisito, mientras que un producto / proceso / servicio defectuoso [deffective], contiene uno o más «defectos».” [16]
"Los defectos se clasifican, generalmente, en tres grandes grupos. Estos grupos son [17]: I) defectos inherentes (resultantes de la fabricación o de las materias primas); II) defectos fabricados (resultantes de la transformación de las materias primas en una pieza, producto o servicio terminado); y III) defectos inducidos por el servicio (generados durante el funcionamiento de algún componente)”.
Los defectos pueden deberse a una materia prima / componente defectuoso, o a una pieza / componente defectuoso (procedente de un proceso previo), a una puesta a punto ('setup') /ensamblaje o mantenimiento defectuoso de la maquinaria / material, a métodos erróneos, o a errores humanos [18].
A la postre, todos los defectos se deben a errores humanos. Esta es la razón por la que la lucha contra los defectos es fundamentalmente una cuestión de formación y motivación del personal.
Los errores pueden clasificarse según 10 grandes criterios [19]: 1) omisiones; 2) errores debidos a falta de comprensión; 3) errores de identificación; 4) errores debidos a falta de experiencia; 5) errores voluntarios (consentidos); 6) errores inadvertidos; 7) errores debidos a lentitud; 8) errores debidos a falta de normas o estándares; 9) errores por sorpresa; y 10) errores intencionales.
No todos los errores causan defectos / defectuosos / fallos. Sí los suelen causar los: a) olvidos; b) errores debidos a desconocimiento; c) errores de identificación; d) errores de inexperiencia; e) errores voluntarios; f) errores por inadvertencia; g) errores debidos a lentitud; h) errores debidos a falta de estándares o normas; i) errores por sorpresa; y j) errores intencionales.
Se han estudiado y publicado correlaciones fuertes entre errores y defectos [20]. Por ello se conocen diversas grandes estrategias de prevención de defectos.
Por otra parte, muchos defectos / ‘defectuosos’ [deffective] se pueden prevenir-evitar con técnicas de poka-yoke [21] (si bien éstas pueden resultar más fáciles en el mundo ‘real’ (industria manufacturera, p ej) que en el ‘virtual’ (aplicaciones web, p ej).
Frente a errores, defectos y fallos sólo hay una panacea: calidad. Pero calidad integral.
En octavo lugar, aceptar que «[L]os usuarios (y sobre todo los responsables últimos del trabajo de los usuarios) deben saber que un sistema informático ... es imposible que sea infalible. Y por lo tanto son tanto, o yo diría que aún más responsables, ellos de las consecuencias de no verificar que el sistema funciona, como los propios informáticos.
“Una vez en cierta empresa donde trabajé [Llorenç Pagés] hace ya muchos años nos asignaron un supervisor del trabajo informático una de cuyas frases favoritas era: "Me gusta la Informática porque es una ciencia exacta, es como las Matemáticas o el ajedrez, exacta". Claro, con esta mentalidad ¡cualquier error en un sistema informático es culpa del informático!!». [22]
* * *
Para concluir.
Los sistemas informáticos son frecuentemente imputados de haber causado errores, en ocasiones graves.
Ello es falso (por cuanto el origen de todo error es humano) e imprudente (por cuanto culpar al sistema degrada su credibilidad).
La presunción de inocencia es ciertamente un derecho. También de los sistemas y de quienes los desarrollan.
Pero la historia demuestra que los derechos se conquistan y que —hasta que son ampliamente reconocidos y respetados (y luego, de vez en cuando)— hay que invertir mucho activismo y tiempo.
* * *
(Una primera versión de este artículo fue publicada en Novática 206, verano del 2010 y en el blog "Gobernanza de TI", en enero del 2011. Posteriormente se han introducido algunos cambios o añadidos, entre ellos el relativo a la Presidenta de la Comunidad de Madrid y el del PP y las elecciones en Asturias, marzo del 2012.)
------------------------------------------------------------
[2] En "Las eléctricas desmienten el timo de los huertos solares nocturnos" http://www.elpais.com/articulo/sociedad/Francia/ofrece/Espana/intercambio/residuos/nucleares/elpepusoc/20100505elpepisoc_3/Tes 20100505
[3] Telediario 1 TV1 4 mayo.
[6] http://www.elpais.com/articulo/economia/maquinas/apoderan/Wall/Street/provocan/p...
[8] http://politica.elpais.com/politica/2011/09/07/actualidad/1315392263_896264.html
[9] http://www.answerbag.com/q_view/666955
[10] IBM, desplazando cada carácter al precedente, según algunos]. http://en.wikipedia.org/wiki/HAL_9000
[11] El autor de la feliz frase, que reproduzco con permiso, es Dídac López, Presidente de ATI, en correo cruzado con motivo de la preparación de este artículo.
[12] Contribución de Llorenç Pagés Casas, Director de Novática, con motivo de la preparación de este artículo.
[13] Dalcher, Darren: “El éxito de los proyectos de software: yendo más allá del fracaso”. Novática 200. Julio-agosto 2009, p 45.
[14] Donde resido y tengo mi despacho. Naturalmente, por si alguien manifestara más interés, tengo un expediente completo y detallado. Naturalmente, sin que el incidente se haya resuelto satisfactoriamente aún (junio de 2010).
[15] Ver Nota 11.
[16] Juran, J M: Ed. Juran Quality Handbook, 1979, p. 23-19.
[17] Juran, J M: Ed. Juran Quality Handbook, 1979, p. 23-19.
[18] Hayward, G. P.: Introduction to Nondestructive Testing, ASQC, Wisconsin, 1978, p. 2.
[19] Hiroyuki Hirano: Kaizen, 1988.
[20] Juran, J M: Ed. Juran Quality Handbook, 1979, p. 18-22.
[21] Hiroyuki Hirano & Nikkan Kogyo Shimbun: Poka-yoke, Ernst & Young, 1991. Ver también http://es.wikipedia.org/wiki/Poka-yoke.
[22] Ver Nota 11.
Comments (0)