Follow us on:
Perspectives

iTTi Views

Integración de comunicaciones

Monday, 15 February 2016 Maria Jose de la Calle Posted in iTTi Views

La expresión "comunicaciones unificadas", UC (del inglés, Unified Communications) es relativamente nueva con unos antecedentes que podrían localizarse en la mensajería unificada (integración de voz, fax y correo-e). Además, dicha expresión no parece gozar de una acepción comúnmente aceptada; de un lado atiende a diferentes significados dependiendo del mercado al cual se represente; de otro, podría decirse que carece de "estabilidad" por cuanto -como todo lo referido a la tecnología- está en permanente evolución. Consecuentemente, se hace oportuno comenzar por aclarar el sentido de cada uno de los términos que la componen:

- en primer lugar, el sustantivo "comunicaciones" hace referencia a los medios que permiten que se establezca la interlocución, o la transmisión de algún tipo de señal, entre dos extremos, como por ejemplo, el telégrafo, el fax, el teléfono, etc. 

- en segundo lugar, el adjetivo "unificadas" sugiere aquello "que ha recibido unificación", esto es, que ha sido objeto de alguna "acción o efecto de unificar", de "hacer que cosas diferentes o separadas formen una organización, produzcan un determinado efecto, tengan una misma finalidad". 

La finalidad esencial de la comunicación es la de facilitar la transmisión de un mensaje a través de, o con ayuda de, un medio. Con la evolución de la Tecnología estos medios también han ido cambiando, y ampliándose en número, de forma que se ha pasado, en diferentes estadios de dicha evolución, por el teléfono fijo, por el fax, por el ordenador y sus redes, por el teléfono móvil, etc.; los cuales, a su vez, han permitido ser soporte de diversos tipos de mensajes: de voz, de correo-e, de carácter instantáneo, de vídeo, de datos.  

Pero los beneficios de esa variedad de mecanismos (medios) de comunicación y de mensajes, quedan, al mismo tiempo, eclipsados por la necesaria atención que el usuario ha de prestar a, y las diferentes identidades y credenciales que ha de manejar en cada uno de ellos, la dispersión de la información tratada (enviada, recibida, etc) y la falta de disponibilidad, tanto de la propia información como de los medios empleados para transmitirla, que no siempre están al alcance en todo momento y lugar. Solventar estas dificultades será la finalidad de las "comunicaciones unificadas": con ellas podrán utilizarse los diferentes medios para comunicarse, de las distintas formas posibles, con cualquiera,  en cualquier momento y en cualquier lugar, independientemente del dispositivo a utilizar y del formato o formatos en que se encuentre el mensaje. 

El usuario tendrá asociada una única identidad en los diferentes medios y empleará una sola interfaz desde la que podrá revisar sus mensajes de voz, fax, correo-e, etc., o iniciar una conversación con aquellos usuarios conectados, sobre cuya disponibilidad le mantendrá informado, permanentemente, el propio sistema de "comunicaciones unificadas". 

Algunos componentes de este tipo de sistemas serían: la ya mencionada la mensajería unificada; la mensajería instantánea; las herramientas de conferencia y colaboración en tiempo real, que incluyen audio, vídeo, conferencias a través de la web, compartición de espacios de trabajo y pizarras -virtuales-, ficheros, flujos de trabajo, planificaciones, etc.; y la integración con los procesos de negocio, pudiendo iniciar un proceso de comunicación desde dentro de una aplicación, facilitando por ejemplo una notificación o una petición o consulta.  

Si bien, todos estos componentes, por separado, no constituyen novedad alguna, si lo es la integración de todos ellos, integración que conduce a los retos de la compatibilidad y la interoperabilidad de los distintos componentes, y, en última instancia, al de nuevas funcionalidades que a raíz de la integración puedan surgir. Tal es el caso de la posibilidad de iniciar una llamada al autor de un documento que se está revisando, desde el propio documento. 

Las "comunicaciones unificadas" parecen portadoras de importantes ventajas; una, sin duda parece la optimización de los procesos del negocio; sin embargo, cuando se dan situaciones de baja o nula cobertura, aquellos procesos ligados a la necesidad de estar conectados, no funcionarán adecuadamente. Se necesitará, por tanto, tener en cuenta que puedan funcionar con o sin comunicación. Así lo proponía el pasado 8 de enero de 2016 el consultor de la firma Gartner, Robert Desisto, en su "Mobile Offline: Back to the Future".

Finalmente, la gran dependencia que podemos llegar a tener de estas plataformas de comunicación unificada, nos hace más vulnerables como "punto de fallo único", en disonancia con D. Pedro Calderón de la Barca que, en 1629 escribía "casa con dos puertas, mala es de guardar".  

* * * 

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 149, 27-01-2016. Referencia: Especial/Comunicaciones Unificadas. Opinión, pg.32 – "Integración de Comunicaciones" – María José de la Calle.   

--------------------------------------- 

Confianza, seguridad y GCTI

Thursday, 07 January 2016 Maria Jose de la Calle Posted in iTTi Views

Del DRAE:

Confiar: Depositar en alguien, sin más seguridad que la buena fe y la opinión que de él se tiene, la hacienda, el secreto o cualquier otra cosa. 

Confianza: Esperanza firme que se tiene de alguien o algo. 

* *

“Privacy and security are important brand differentiators and companies need to move from a mindset of meeting compliance requirements to becoming a steward of consumer data.”  

[Del correo enviado por Craig Spiezle, Director y fundador de la "Online Trust Alliance" a la NIST el 1 de agosto de 2011]. 

Aunque esta cita ya tiene más de 4 años, el contenido del correo no ha perdido vigencia en absoluto. 

Las brechas de seguridad en todo tipo de organismos, tanto públicos como privados, compañías tecnológicas o de cualquier otro sector, y hasta en empresas dedicadas a desarrollar y vender herramientas de intrusión en los sistemas -como la empresa italiana Hacking Team[i] que en julio de este año -2015- sufrió un ataque divulgándose una gran cantidad de información de clientes-, están pasando a ser consideradas sucesos cotidianos. 

En el individuo esta cotidianidad podría tener, entre otros, dos efectos a cual más nocivo, consecuencias ambos de considerarlos irremediables, y como tales, rendirnos a su inevitabilidad. Uno de ellos sería  dejar de tomar medidas adecuadas para evitar la intrusión, otro sería dejar de utilizar los servicios proporcionados a través de la red, como consecuencia de la pérdida de confianza en los sistemas, y, por extensión, en las empresas que los proporcionan. 

El primer efecto causaría a nivel de dispositivo individual -de hecho está causando por negligencia o ignorancia- daños por virus con efectos de secuestro del contenido del ordenador, cifrándolo y solicitando dinero como rescate (ransomware); o uso por terceros de dispositivos sin permiso del propietario creando redes de ordenadores esclavos (botnets) utilizados posteriormente para actuaciones ilícitas, como por ejemplo ataques distribuidos de denegación de servicios (DDoS, Distribuited Denial of Service); o para entrar en una red de una empresa a través de un dispositivo móvil autenticado; o simplemente robo de información contenida en los dispositivos, importante para el individuo, para la empresa en la que este trabaje o para terceros relacionados con él.

El segundo efecto daría al traste con la digitalización del mercado y los servicios en particular, y de la sociedad de la información en general. 

La Global Commission on Internet Governance  (GCIG) publicó este pasado mes de abril "Toward a Social Compact for Digital Privacy and Security", de lo que se hizo eco iTTi[ii], un importante documento de 29 páginas que, al considerar necesario restaurar la confianza en el uso de internet, proponía que todas las partes interesadas colaboraran en la adopción de normas para un comportamiento responsable de dicho uso.  

Sin embargo, no es sólo cuestión de datos en línea. Hoy día, todos las organizaciones utilizan para su gestión tecnologías de la información aunque no sea en-línea, manejando datos sobre sus trabajadores, asociados, clientes, socios, proveedores, etc. así como los datos producto de la relación establecida con ellos. Y sus sistemas son susceptibles de ser atacados y que estos ataques tengan éxito. 

Por tanto, aunque no se utilicen directamente servicios en-línea, los datos que es necesario proporcionar a una entidad con la que se está estableciendo alguna relación o los datos producto de dicha relación -por ejemplo, los de una prueba médica- se van a almacenar probablemente en un sistema informático. Y este sistema informático es probablemente accesible desde la red. Como se indica en la cita que abre este artículo, "las empresas han de transformarse en administradores de datos" de los terceros con los que se relacionan.  

Los negocios y las instituciones dependen en gran medida de un bien intangible que se llama "marca". La marca de una empresa es como la reputación de las personas. Esta marca está ligada a la confianza -hipótesis que los demás hacen sobre la conducta futura de la empresa- que sepan transmitir. 

Según un estudio, realizado por el instituto Ponemon y publicado el 26/08/2015, para responder a la pregunta "what erodes trust in digital brands?"

- el 63% de los consumidores no confían en las web de compañías que han tenido brechas de seguridad;

- el 55% de los consumidores no confían en webs que no tienen salvaguardas para proteger la información personal;

- el 50% de los consumidores aún después de un año de una brecha de seguridad perciben negativamente una marca;  

- el 69% de los consumidores han dejado webs de compañías por problemas de seguridad.

Aunque este estudio se centra en las páginas web y la marca digital, casi todas las empresas han sufrido o están sufriendo una transformación digital, y tienen página web, a través de la cual ofrecen más o menos servicios y se comunican con sus clientes, siendo, en muchos casos, la página web la generadora -y mantenedora, junto con las redes sociales- de su marca, ya digital. 

Como consecuencia de todo lo anterior, un aspecto que ha entrado de lleno en la imagen de marca de una institución o empresa ha sido la seguridad de sus sistemas informáticos, ya que en ellos residen datos de terceros, y, por tanto, contractualmente o no, deben ser garantes de la seguridad de dichos datos, al haber sido cedidos en la confianza de una relación.  

Enlazando con las definiciones con las que se iniciaba este artículo, los datos se depositan y son confiados sin más que con la buena opinión que se tiene de la empresa -imagen de marca- y en la esperanza firme de que sean tratados adecuadamente para el fin para el que se ceden. 

La seguridad de la información ha pasado de ser un tema "de los informáticos" a ser un tema "de negocio". La posible pérdida o robo de información generados por la aplicación y uso de las tecnologías de la información, especialmente, del "siempre conectados" es un riesgo que ha de gestionarse adecuadamente dentro de la política de gestión de riesgos de la compañía en cuestión, y estar sobre la mesa de su órgano de gobierno. 

Entender la [ciber]estrategia es esencial, pero salvo honrosas excepciones, los temas de [ciber]seguridad -y los temas de TI en general- se tratan principalmente desde un punto de vista técnico, ignorando que sólo un enfoque estratégico puede preparar a las empresas para conseguir ventaja sobre los ciber-atacantes. El órgano de gobierno necesita preguntarse porqué es necesaria la [ciber]seguridad, qué caracteriza las distintas amenazas, cual es el riesgo derivado del uso de las TI, qué nivel de [ciber]seguridad se necesita para disponer de un sistema que funcione y con capacidad para recuperarse de un ataque -resiliencia-[iii]. En resumen, la estrategia para defender el valor y anticipar nuevos escenarios de amenazas. 

En realidad, la decisión de cómo se utilizan las tecnologías de la información y los riesgos asociados, o lo que se ha llamado "Gobierno Corporativo de las TI", debería formar parte de la agenda de dicho órgano de gobierno. En palabras de la Organización Internacional de Normalización (ISO, International Organization for Standardization), el Gobierno Corporativo es “el sistema mediante el cual se dirige y controla el uso actual y futuro de las TI. [...] ... y es un subconjunto del gobierno de la organización o del gobierno corporativo.”[iv] 

* *

En iTTi, prestamos atención preferente al gobierno corporativo de las tecnologías de la información por quien tiene, en las empresas y organismos, la obligación y potestad para ejercerlo; esto es, por quien tiene la responsabilidad última de decidir sobre la aplicación y uso de dichas tecnologías en el ámbito de la organización: el Órgano de Gobierno (Consejo de Ministros, Consistorio, Consejo de Administración, Patronato, Rectorado, …, según el caso).

Ese Órgano de Gobierno ha de ocuparse, además, de identificar a todos los ‘interesados’ (incluidos sus intereses y demandas).

* *

No nos vamos a quejar si las TI se sientan en el consejo aunque sea de la mano de la seguridad ... 

* * *

Este artículo fué publicado originalmente por @PuntoSeguridad.com/"Cuadernos de Seguridad", dic-2015, nº 306, pg.57, Ciberseguridad – "Confianza, seguridad y CGTI" – María José de la Calle.  

-----------------------------------

[i] url [a 2015.10.04] http://politica.elpais.com/politica/2015/07/07/actualidad/1436284983_731864.html 

[ii] Palao, Manolo. "Hacia un nuevo contrato social sobre la privacidad y seguridad digitales", abril, 2015. url [a 2015.10.04]: http://www.ittrendsinstitute.org/perspectives/item/nuevo-contrato-seguridad-digital.  

[iii] url [a 2015.10.18]: https://blogs.mcafee.com/executive-perspectives/fighting-fire-fire-will-lead-us-dangerous-future/  

[iv] "ISO/IEC 38500:2015 applies to the governance of the organization's current and future use of IT including management processes and decisions related to the current and future use of IT. [...] ... defines the governance of IT as a subset or domain of organizational governance, or in the case of a corporation, corporate governance."

url [a 2015.10.23]: http://www.iso.org/iso/home/store/catalogue_ics/catalogue_detail_ics.htm?csnumber=62816  

 

El aprendizaje de las máquinas: de lo digital al algoritmo.

Thursday, 07 January 2016 Maria Jose de la Calle Posted in iTTi Views

Una de las tendencias que Gartner identifica para el 2016 es el aprendizaje avanzado de las máquinas en base a las llamadas redes neuronales profundas (deep neural nets o DNNs), sistemas que pueden aprender de forma autónoma para entender el mundo. Posibilitan el autoaprendizaje de todas las características de su entorno. Las organizaciones deben evaluar cómo aplicar estas tecnologías para ganar ventaja competitiva [i]. 

Continuando con el futuro dibujado por Gartner, los algoritmos definirán el futuro de la empresa. En una empresa algorítmica, la mayor parte de lo que sucede se producirá en el trasfondo de la empresa, a través de máquinas inteligentes, sin que las personas estén directamente implicadas. Evolucionaremos a un mundo post-app, con agentes inteligentes proporcionando dinámicamente interfaces y realizando acciones contextuales como, por ejemplo, lo que Gartner llama asistentes personales virtuales (virtual personal assistants o VPAs). 

De la empresa digital a la empresa algorítmica.  

Un ejemplo de asistente personal es la herramienta que acaba de hacer pública Google, llamada "Dubbed Smart Reply (DSR)"[ii] con la cual un dispositivo con servicio de correo podría responder automáticamente correos-e. De momento, la herramienta propone 3 breves respuestas de las cuales se puede elegir una y, si se quiere, completarla o modificarla. DSR aprende analizando gran cantidad de correos-e del servicio Gmail de una vasta red de ordenadores, las redes neuronales a las que hace referencia Gartner, llamadas así por su funcionamiento análogo a las redes neuronales de nuestro cerebro. Las redes analizan la información en base a algoritmos para aprender una tarea concreta, en este caso entender los correos y ser capaces de responderlos. 

Estos algoritmos, llamados "Deep learning", provienen de la Inteligencia Artificial (IA) de los años 80, pero es ahora con la vasta de red de comunicaciones y la enorme cantidad de datos de los que se dispone que se les está sacando todo su potencial  y  que está haciendo evolucionar rápidamente un amplio rango de servicios online, como el reconocimiento del habla en el teléfono, la traducción instantánea en Skype, el reconocimiento de caras en las imágenes que se suben a la red, las recomendaciones de cosas que nos pueden gustar o amigos que podemos hacer, al fin y al cabo campos tradicionales de la IA -reconocimiento de voz, reconocimiento de imágenes, textos- y a la robótica, con un único modelo de aprendizaje. 

Las máquinas aprenden por medio de algoritmos inspirados en cómo se cree que funciona nuestro cerebro, que son capaces de tratar grandes cantidades de datos estructurados y no estructurados, y que no tienen limitaciones teóricas sobre lo que pueden llegar a hacer. De cuantos más datos se les provea o las máquinas mismas recojan, y cuanto más largo sea el tiempo de cálculo, mejores resultados conseguirán. Por ejemplo, analizando gran cantidad de palabras habladas, pueden aprender a reconocer las órdenes dadas por voz a un teléfono. 

Y ya no habrá que escribir instrucciones precisas en las que decir a las máquinas lo que tienen que hacer, dependiendo de las situaciones tomarán decisiones en una u otra dirección sin que se les haya dado dichas instrucciones expresas escritas en un programa. 

En realidad, es nuestra forma de aprender, absorbiendo datos y situaciones desde que nacemos, creando patrones y aplicándolos a nuevas situaciones -con mayor o menor fortuna-. 

De momento, tenemos que seguir escribiendo y manteniendo máquinas con viejos y nuevos algoritmos, ¿pero por cuánto tiempo? En un artículo [iii] publicado por MIT el 15 de junio de 2015, Larry Hardesty explicaba que investigadores del MIT habían presentado  un nuevo sistema para reparar errores peligrosos de software (SW) importando funcionalidades de otras aplicaciones más seguras. En el mismo artículo se indicaba que existen "toneladas" de código fuente disponible en repositorios open-source, millones de proyectos, y una gran cantidad de estos proyectos implementan funcionalidades similares o tienen componentes con funcionalidades comunes. El sistema toma las mejores componentes que encuentra. 

Con estas toneladas de código las máquinas podrían aprender no sólo a arreglar un error, sino a programar[se] nuevas funcionalidades.  

Las máquinas ya saben leer y escribir, pueden interpretar lo que oyen -los dictáfonos, traductores, etc-, sus cámaras no sólo registran lo que ven, sino que lo interpretan -búsquedas en Google de texto a partir de imágenes o búsquedas de imágenes a partir de texto-. 

Primero fueron las herramientas para realizar actividades que nuestros músculos no podían, es decir, realizar actividades físicas, pero manejadas con energía muscular; estas evolucionaron hacia máquinas-herramientas cuyo movimiento sería autónomo a base de motores impulsados por energía térmica, hidráulica o eléctrica pero dirigidos por nuestro cerebro; posteriormente, llegaron las máquinas dirigidas por instrucciones residentes en las propias máquinas, las máquinas programables con programa almacenado, que eran -y son- capaces de realizar otro tipo de actividad, más de la mente que de los músculos, actividades automatizables y repetitivas que responden a algoritmos matemáticos. Llegó la revolución del SW. 

Al mismo tiempo que las máquinas-herramientas evolucionaban, evolucionaba el trabajo, de un trabajo con los músculos a un trabajo con la mente, de generar valor con los músculos a generar valor con la mente, lo que podríamos llamar el trabajo del conocimiento. 

Y la evolución del SW, y por ende, la evolución de lo que las máquinas pueden hacer, continúa. Ahora las máquinas están aprendiendo de todo lo que les rodea, con lo que las estamos dotando, también, de capacidad de generar valor con su mente artificial. Este valor generado por las máquinas es el que tenemos que saber utilizar para, a su vez generar más valor. Viviremos y trabajaremos con ellas en nuestro beneficio y ellas nos irán redefiniendo a nosotros. Como afirmó Marshall McLuhan (1911-1980) sociólogo canadiense "We shape our tools and then our tools shape us."[iv].

"Deep Learning" se está extendiendo más allá de Internet, poniéndolo dentro de dispositivos que pueden operar en el mundo físico, como los robots ya mencionados, o como los coches autónomos de Google, que pueden reconocer con estos algoritmos y los datos con los que se alimentan, el mundo que los rodea.   

Por si esto no fuera suficiente, además, las máquinas componen letras de canciones. En el artículo "Machine-Learning Algorithm Mines Rap Lyrics, Then Writes Its Own"[v] publicado en mayo de este año por MIT Tecnology Review se puede leer que Eric Malmi y otros compañeros de la universidad de Aalto de Finlandia han creado un algoritmo para reconocer características de algunas letras de rap y elegir otras que rimen con las anteriores y sean del mismo tema. El resultado es un algoritmo que produce letras de rap. Eric y su grupo comenzaron alimentando a su algoritmo para que aprendiera la máquina con una base de datos de más de 10.000 canciones de más de 100 artistas de rap. 

Esto empuja los límites de la creatividad de la máquina hacia la creatividad humana. ¿Y su consciencia? 

¿Acabará la humanidad manipulada por las máquinas para su bienestar, tal como una máquina consideraría dicho bienestar, como lo declara  R.(robot) Daneel Olivaw, en la novela "Fundación y Tierra" de Isaac Asimov, donde explica que ha estado manipulando la humanidad durante miles de años con el fin de protegerla? Para poder hacerlo tuvo que definir y añadirse a sí mismo la llamada ley 0 "Un robot no puede perjudicar a la Humanidad, ni, por omisión, permitir que la Humanidad sufra daño"[vi], para así poder contravenir la primera ley: "Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño". 

Ahora que estamos a tiempo debemos dotar a las máquinas de nuestros valores para que con sus tareas y acciones no produzcan una extinción de la humanidad [vii]. 

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 148, 16.12.2015. Referencia: VIII Premios ComunicacionesHoy/ Opinión, pg.14 – "El aprendizaje de las máquinas: de lo digital al algoritmo" – María José de la Calle. 

-----------------------------------

[i] "Gartner Identifies the Top 10 Strategic Technology Trends for 2016" url [a 26.11.2015] http://www.gartner.com/newsroom/id/3143521 

[ii] Respuesta Inteligente Doblada. Metz, Cade. WIRED, nov-2015 "Soon, Gmail’s AI Could Reply to Your Email for You" url [a 26.11.2015] http://www.wired.com/2015/11/google-is-using-ai-to-create-automatic-replies-in-gmail/ 

[iii] Hardesty, Larry. "MIT News", jun-2015 "Automatic bug repair" url [a 26.11.2015] http://news.mit.edu/2015/automatic-code-bug-repair-0629 

[iv] "Conformamos nuestras herramientas y ellas nos conforman a nosotros" url [a 26.11.2015] http://www.brainyquote.com/quotes/quotes/m/marshallmc141113.html  

[v] Ref:arxiv.org/abs/1505.04771: DopeLearning: A Computational Approach to Rap Lyrics Generation url [a 26.11.2015] http://www.technologyreview.com/view/537716/machine-learning-algorithm-mines-rap-lyrics-then-writes-its-own/ 

[vi] MIT Tecnology Review, may-2014. "Do We Need Asimov's Laws?" url [a 26.11.2015] http://www.technologyreview.com/view/527336/do-we-need-asimovs-laws/ 

[vii] Conn, Ariel, "future of life", nov-2015. "The Superintelligence Control Problem" url [a 26.11.2015]  http://futureoflife.org/2015/11/23/the-superintelligence-control-problem/ 

 

Redes definidas por software: ¿Y qué no?

Monday, 14 December 2015 Maria Jose de la Calle Posted in iTTi Views

Ya en noviembre del 2008 Lev Manovich [i] en su trabajo "Software Takes Command" -publicado en 2013 por Bloombury en un libro del mismo título-, afirmaba que las marcas globales más reconocidas estaban encabezadas por nombres como Google, Yahoo o Microsoft -en estos momentos quizás habría que sustituir Yahoo por Amazon o Twitter- y si se accedía a la sección de negocios de cualquier medio, las empresas que encabezaban los índices bursátiles en EEUU eran Google y Apple -software (SW)- en una segunda parte, General Electric y General Motors -bienes físicos y energía- y a continuación se encontraba a Intel y Cisco, dos compañías de TI pero que proveen de hardware [ii]. 

En agosto del 2011 Marc Andreessen, en su artículo, "Why Software Is Eating The World"[iii], publicado en el WSJ, abundaba en esta cuestión. Explicaba el fenómeno por la madurez alcanzada por la tecnología requerida para transformar los distintos sectores tanto públicos como privados, a través del SW, después de seis décadas inmersos en la revolución del ordenador, cuatro décadas desde que se inventó  el microprocesador, y dos décadas del moderno internet. Y dicha tecnología se puede distribuir a escala global. 

Las empresas basadas en software, se están "comiendo" negocios tradicionales y están cambiando la manera de consumir los servicios que prestan. Ejemplos como Google con su potente motor de búsqueda que se ha transformado en la mayor plataforma de marketing directo, o Apple con la música y su iTunes, o Amazon como una gran empresa de distribución, o Skype como empresa de telecomunicaciones, por decir algunas, todas ellas basadas en un potente SW. 

No es necesario hacer la lista de los sectores afectados porque son "todos": agricultura, sanidad, defensa, enseñanza, automoción, energía, etc. Incluso las llamadas empresas tecnológicas, como Dell, EMC, HP, y Cisco, o la misma IBM, a  las que la revista WIRED tacha de "muertos vivientes" en un artículo reciente del 12/10/2015 "Dell. EMC. HP. Cisco. These Tech Giants Are the Walking Dead"[iv].

El SW es un ente invisible que está en (casi) todo. Con las aplicaciones leemos, escuchamos música, vemos la televisión, hacemos la compra, nos dirigen a nuestro destino, trabajamos, tomamos decisiones en base a informes elaborados por ellas, nos comunicamos, las cosas se comunican (IoT) y ellas con nosotros, se controla el suministro de agua, gas y electricidad de las ciudades, se controla el vuelo de un misil o de un dron.

Y, paralelo a todo esto, el SW no deja de evolucionar en la llamada la inteligencia artificial o la dotación a las máquinas de la capacidad de aprender.

Por supuesto, y centrándonos en el título del artículo, es el que organiza Internet, dirigiendo los mensajes de email, entregando páginas web de un servidor, controlando el tráfico de red, asignando direcciones IP, y presentando páginas web en un navegador. 

"Redes definidas por SW" o SDN (del inglés, software-defined networking) es un término que, según la definición que nos ofrece TechTarget[v], agrupa varios tipos de tecnologías de red con el objetivo de permitir a los ingenieros y administradores de las redes responder rápidamente a los requerimientos del negocio, sin preocuparse de qué específicos dispositivos estén conectados a qué y sin tocar los switches, desde una consola de control centralizada. Virtualización de redes y automatización a través del SW, es decir, programable. 

Con el SW también se tiene la capacidad de enmascarar la realidad, y no sólo con el dedicado a tratar la fotografía.

Un ejemplo que ha saltado recientemente a las portadas de todos los medios ha sido como Wolkswagen, por medio de un programa de software, detectaba cuando se estaba realizando una prueba de emisiones para, en estos casos, reducir las prestaciones del coche, y así las emisiones contaminantes, para ajustarse a la legislación. Con ello la empresa ahorraba dinero al no añadir elementos adecuados en el motor para reducir en modo conducción real dichas emisiones. Les salía más barato producir el software e implantarlo.

Si tan importante es el SW, ¿se le está prestando la debida atención? Como respuesta a esta pregunta, termino con una cita del mismo trabajo de Lev Manovich con el que empecé este artículo:

"Pienso en el software como una capa que permea todas las áreas de las sociedades contemporáneas. Por lo tanto, si queremos comprender las técnicas contemporáneas de control, comunicación representación, simulación, análisis, toma de decisiones, memoria, visión, escritura e interacción, nuestro análisis no puede estar completo hasta que consideremos esta capa de software."[vi].

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 147, 10.11.2015. Referencia: Opinión/SDN, pg.26 – "Redes definidas por software: ¿Y qué no?" – María José de la Calle.  

--------------------------------------

[i] url [a 13.10.2015]  https://en.wikipedia.org/wiki/Lev_Manovich 

[ii] "El Software toma el mando". url [a 13.10.2015] http://catedradatos.com.ar/media/Lev-Manovich-El-Software-toma-el-Mando-2008-Introducción-_Estudios-de-Software-para-principiantes-.pdf  

[iii] "Por qué el Software se está comiendo el mundo". url [a 13.10.2015] http://www.wsj.com/articles/SB10001424053111903480904576512250915629460 

[iv] url [a 13.10.2015]  http://www.wired.com/2015/10/meet-walking-dead-hp-cisco-dell-emc-ibm-oracle/?mbid=social_twitter 

[v] url [a 13.10.2015] http://searchsdn.techtarget.com/definition/software-defined-networking-SDN 

[vi] Véase la nota [ii]. 

 

[Ciber]Armas de difusión masiva

Friday, 04 December 2015 Miguel Garcia-Menendez Posted in iTTi Views

Una imagen vale más que mil palabras

El brutal atropello -sorprendentemente no mortal- de Mario Valencia [i] por parte del agente de policía de Arizona, EE.UU., Michael Rapiejko, ocurrido el 19 de febrero de 2015; la muerte de Eric Courtney Harris [ii] provocada, supuestamente de manera accidental, por el veterano ayudante del sheriff de Tulsa (Oklahoma, EE.UU.), Robert Bates, el pasado 2 de abril de 2015; o la ejecución de Walter L. Scott [iii], dos días después, el 4 de abril, a manos del agente de policía Michael T. Slager, en North Charleston (Carolina del Sur, EE.UU.), han formado parte del sumario de los noticieros televisivos de medio mundo, ampliando un ya notable registro de lamentables acontecimientos similares [iv],[v]. 

Un elemento común a todos los casos citados: la omnipresencia de “lo digital”; más concretamente, de la tecnología de video digital, que se ha integrado en todo tipo de dispositivos, desde equipos de bolsillo (teléfonos o similar, lo que nos ha permitido conocer de primera mano el caso Scott), hasta aparatos electrónicos corporales (wearables, según su denominación inglesa, del estilo de las minicámaras que llevan como parte de su equipo los más vanguardistas agentes de la ley y que nos han convertido en testigos directos de los casos Valencia y Harris). 

En cualquiera de estas dos variantes, “lo digital” vuelve a mostrarse disruptivo; en esta ocasión en relación a una actividad pública como lo es la policial. Y ello, por cuanto va a modificar, si no está haciéndolo ya, algunos de los más reprochables usos y costumbres de la citada actividad. 

Mientras se determinan los pros y contras del despliegue de minicámaras entre las fuerzas del orden -en el lado de los beneficios, la materialización de una nueva estrategia pública de mejora en la rendición de cuentas y de una mayor transparencia; en el lado de las desventajas, la complejidad y coste derivados de la gestión y tratamiento de la ingente cantidad de datos de video recabados- el uso de esta tecnología va configurando un nuevo escenario para el enfrentamiento, para el ataque y la defensa; va abonando el terreno para viejos conflictos, como las protestas sociales, habilitados por nuevos medios: los digitales. 

En toda confrontación los medios materiales y físicos que la hacen posible constituyen su armamento. Las herramientas digitales no son una excepción. Son las nuevas “ciberarmas” empleadas, como se ha apuntado, tanto en la defensa, como en el ataque.

En el plano defensivo, las agencias policiales dotan a sus miembros de cámaras corporales, entre otros motivos como garantía de “higiene profesional”, de aval de una labor profesionalmente realizada. En este sentido, el ejemplo más paradigmático puede ser el del Departamento de Policía de Seattle (Washington, EE.UU.), que en febrero de 2015 [vi] habilitó un canal de YouTube [vii] en el que muestra videograbaciones de las actuaciones de sus agentes. 

En el lado del “ataque” -en este caso “denuncia”, dado que no pretende ser más que otro mecanismo de defensa ante los excesos y abusos policiales- estarían las posibilidades ofrecidas por los teléfonos móviles (vimos la muerte de Walter gracias a la grabación realizada por el inmigrante dominicano Feidin Santana), en combinación con las redes sociales que se han convertido en el campo de acción de activismos de todo tipo. 

Las guerras de YouTube

Pocos ejemplos muestran mejor la rápida y reciente explosión de lo digital, de la creciente ubicuidad de la imagen digital, que las famosas fotografías de la romana Via della Conciliazione, tomadas en 2005 y 2013, por los fotógrafos Luca Bruno y Michael Sohn para la agencia Associated Press [viii].

El 4 de abril de 2005, tras el fallecimiento del Papa Juan Pablo II, Bruno retrató una calle atestada de fieles dirigiéndose en procesión hacia la basílica de San Pedro, donde presentarían sus respetos al cadáver papal. La gente aparece caminando con normalidad, con los brazos hacia abajo y solo es visible, en el primer plano de la imagen, un único teléfono móvil (¡Faltan dos años y medio para la llegada del iPhone!).

La fotografía de Sohn, tomada en la noche del 13 de marzo de 2013, tras la elección del cardenal Jorge Bergoglio como nuevo Pontífice, muestra una escena bien distinta: la multitud avanza hacia la Plaza de San Pedro para presenciar el primer discurso del Papa Francisco, pero, esta vez lo hace con los brazos en alto, sujetando sus teléfonos móviles y tabletas, que guardarán para la historia el jubiloso momento (¡Es el sexto año de la era iPhone!).

Sin embargo, como se ha apuntado al principio de esta reflexión, cámaras, móviles y redes sociales no siempre han sido protagonistas de escenas tan inocentes. En 2009, durante el reivindicativo “Movimiento Verde” iraní, un móvil e Internet mostraron la muerte de la joven estudiante Neda Salehi Agha Soltan [ix] ¡Posteriormente, las autoridades prohibirían captar imágenes de su funeral! Dicha prohibición trataba de atajar el que se ha demostrado como uno de los mayores potenciales de estos nuevos medios: su capacidad de movilización, la cual fue ampliamente explotada durante las “primaveras” que recorrieron el norte de África en 2011.  

Pero sería en el marco de la contienda de Irak, desarrollada a lo largo de la primera década del siglo XXI, donde realmente adquiriría sentido tildar al video digital como una verdadera ciberarma. En su informe de 2009, elaborado para el Instituto de Estudios Estratégicos del Ejército de los EE.UU., “YouTube War: Fighting in a world of cameras in every cell phone and Photoshop on every computer”[x] (“La Guerra de YouTube: Luchando en un mundo de cámaras en cada teléfono móvil y Photoshop en cada ordenador”), la académica y analista Dra. Corie E. Dauber señalaba el impacto de las grabaciones en video -habitualmente de ataques a blancos aliados- realizadas y difundidas por los insurgentes. Un impacto que se materializó en el desaliento de al menos una parte de la opinión pública occidental -objetivo prioritario de las citadas grabaciones- respecto de la utilidad del conflicto.

Sería solo el principio ...

La macabra presencia mediática del “Cibercalifato”

La Primera Guerra del Golfo (1990-91), que siguió a la invasión de Kuwait por parte de Irak, fue la guerra de la cadena estadounidense CNN, que la retransmitió en directo a todo el mundo. Durante la Segunda Guerra del Golfo (2003-2011), que acabó con el régimen de Saddam Husein en Irak, la cadena catarí Al-Jazeera se dio a conocer en Occidente. La actual contienda que el mundo mantiene con el Estado Islámico de Irak y el Levante (EI), no ha requerido periodistas: el desarrollo tecnológico ha facilitado a los terroristas grabar, montar en sus propios “estudios” y divulgar sus acciones, sin la cobertura que habría ofrecido la prensa convencional.

Dichos estudios de campaña, verdaderos laboratorios de medios, son y han sido objetivo prioritario de las fuerzas occidentales desde los tiempos de la Guerra de Irak. Como relata la Dra. Dauber en su estudio, ya en ese momento el tratamiento que recibían ese tipo de instalaciones era el de infraestructuras críticas para el uso: se mantenían aisladas de Internet y solo cuando su producción videográfica estaba preparada, era trasladada a aquellos otros puntos desde donde se la podía subir a la red. De ese modo, la combinación de las capacidades tecnológicas que hoy ofrece el video digital con las que aporta Internet, han hecho del conjunto una verdadera “ciberarma” y han convertido al autoproclamado califato en un “cibercalifato”, cuya presencia en Internet, descrita parcialmente en el reciente “The ISIS Twitter Census”[xi], ha resultado clave para las pretensiones del EI desde diferentes perspectivas:

- En primer lugar, como se ha señalado en alguno de los casos mencionados más arriba, EI ha sabido aprovechar la capacidad de movilización de sus acciones propagandísticas, consiguiendo atraer a Irak y Siria a varios miles de combatientes que han acudido en su apoyo desde todos los rincones del globo. 

- En segundo, las macabras imágenes difundidas por EI a lo largo del último año -la más estremecedora, sin duda, la muerte del piloto jordano, Muath al-Kaseasbeh[xii], quien fue quemado vivo a principios de año- han buscado doblegar los ánimos de quienes han tenido la fortuna de verlas desde la distancia. 

El terror desde la comodidad de un sofá parece menor, pero no debería despreciarse el potencial de estas ciberarmas de difusión masiva.

* * *

Este artículo fué publicado originalmente por la revista mejicana Magazcitum el 29/11/2015. Ref: Magazcitum, año 6, nº3, 2015 pág. 16. "[Ciber]Armas de difusión masiva" - Miguel García-Menéndez. 

---------------------------------------------------

[i] Lisaius, Som. “Marana police video shows cruiser ram crime spree suspect”. Tucson News Now, 14 de abril de 2015. URL [a 2015.04.26]: http://www.tucsonnewsnow.com/story/28801395/marana-police-dash-cam-video-shows-cruiser-ram-crime-spree-suspect 

[ii] Ortiz, Erik. “Oklahoma Man Eric Harris Fatally Shot by Deputy Who Meant to Fire Taser”. NBC News, 12 de abril de 2015. URL [a 2015.04.26]: http://www.nbcnews.com/news/us-news/oklahoma-man-eric-harris-fatally-shot-police-accident-instead-tased-n340116

[iii] Smith, Michael S. y Matt Apuzzo. “South Carolina Officer Is Charged With Murder of Walter Scott”. International New York Times, 7 de abril de 2015. URL [a 2015.04.26]: http://www.nytimes.com/2015/04/08/us/south-carolina-officer-is-charged-with-murder-in-black-mans-death.html

[iv] López, Germán y Anand Katakam. “Interactive map: US police have killed at least 5,600 people since 2000”. Vox Media, 9 de abril de 2015. URL [a 2015.04.26]: http://www.vox.com/2014/12/17/7408455/police-shootings-map

[v] Katakam, Anand. “Police-involved deaths (2000-2015)”. Anand Katakam/CartoDB, 9 de abril de 2015. URL [a 2015.04.26]: https://anandkatakam.cartodb.com/viz/e13166bc-854f-11e4-abdb-0e018d66dc29/embed_map

[vi] Área de Comunicación del Departamento de Policía de Seattle. “SPD Launches YouTube Channel for Bodyworn Video”. Blog “SPD Blotter”, 25 de febrero de 2015. URL [a 2015.04.26]: http://spdblotter.seattle.gov/2015/02/25/spd-launches-youtube-channel-for-bodyworn-video/

[vii] Departamento de Policía de Seattle. “SPD BodyWornVideo”. YouTube, febrero de 2015. URL [a 2015.04.26]: https://www.youtube.com/channel/UCcdSPRNt1HmzkTL9aSDfKuA

[viii] Dellaverson, Carlo. “Witnessing papal history changes with digital age”. NBCNews, 14 de marzo de 2013. URL [a 2015.05.02]: http://photoblog.nbcnews.com/_news/2013/03/14/17312316-witnessing-papal-history-changes-with-digital-age

[ix] El Mundo. “Neda, el ‘Ángel de Irán’”. ElMundo.es, 23 de junio de 2009. URL [a 2015.05.02]: http://www.elmundo.es/elmundo/2009/06/23/internacional/1245737789.html 

[x] Dauber, Corie E. “YouTube War: Fighting in a World of Cameras in Every Cell Phone and Photoshop on Every Computer”. Strategic Studies Institute, 16 de noviembre de 2009. URL [a 2015.05.04]: http://www.strategicstudiesinstitute.army.mil/pubs/display.cfm?pubID=951.  

[xi] Berger, J.M. y Jonathon Morgan. “The ISIS Twitter census: Defining and describing the population of ISIS supporters on Twitter”. The Brookings Institution, marzo de 2015. URL [a 2015.05.05]: http://www.brookings.edu/research/papers/2015/03/isis-twitter-census-berger-morgan

[xii] Uno de los primeros ‘tweets’ recogiendo la noticia del brutal asesinato del piloto jordano Muath al-Kaseasbeh, publicado el 3 de febrero de 2015. URL [a 2015.05.05]: https://twitter.com/reecegeisler/status/562673337315647488

 

IoT: Cuando las cosas comiencen a pensar

Sunday, 25 October 2015 Maria Jose de la Calle Posted in iTTi Views

Este artículo toma su título del libro "When Things start to Think" [i], sobre el cual Nicholas Negroponte, fundador y primer director del MIT MediaLab, escribió "An important story about why and how computers will disappear, when and where your things will think."

La Internet de las Cosas -o IoT (Internet of Things) para abreviar-, es, según Whatis [ii], un entorno en el cual los objetos están dotados, por una parte, de identificadores únicos y, por otra, de la habilidad de transferir datos a través de una red sin requerir de la intervención humana. 

La "IoT" no es un concepto nuevo. Prueba de ello es el libro que hemos citado. Los ejemplos a nuestro alrededor son crecientes en número: piense en los coches, que gracias a la tecnología GPS -y a las aplicaciones informáticas correspondientes- son capaces de guiarnos hasta nuestro destino; piense en los sensores de los que van dotados esos mismos vehículos, que permiten conocer cualquier deficiencia en su estado y comunicarlo automáticamente al taller; piense en su interacción con otros, sensores urbanos que informan sobre el estado del tráfico sugiriéndonos rutas alternativas o estacionamientos cercanos.

Otro destacado ejemplo lo conforman los objetos que podemos llevar puestos -wearables, por su denominación inglesa-. Objetos cotidianos, como relojes, pulseras, gafas, etc., que, mediante la incorporación de cámaras, micrófonos y sensores diversos se convierten "medidores" de nuestros parámetros biológicos y de nuestro entorno, pudiendo informar sobre el estado de los mismos a través de internet a nuestro centro de salud, como si de los vehículos anteriormente citados se tratara. 

Todos los dispositivos que contribuyen a nuestro bienestar cotidiano -bombillas, electrodomésticos, zapatos, ropa, etc- son susceptibles de estar conectados para proporcionarnos infinidad de servicios adicionales. Los ordenadores, tal y como los conocemos, desaparecen para integrarse dentro de los objetos que están a nuestro alrededor, y la división entre "hardware" y "software", se difumina. Citando nuevamente a Negroponte [iii], el medio para resolver problemas queda embebido en las cosas; "hardware" y "software" se fusionan en un nuevo "softwear". El incremento en disponibilidad de potencia de cálculo está acompañado de una disminución en la visibilidad [iv]. 

Pero conseguir que dispositivos tan heterogéneos como una bombilla o un gran ordenador hablen el mismo lenguaje y sean capaces de entenderse a través de internet, se antoja un importante reto. Para contribuir a superarlo, ya a principios de la pasada década, los investigadores del Centro de Bits y Átomos del MIT, Neil Gershenfeld, Raffi Krikorian y Danny Cohen desarrollaron un protocolo, al que bautizaron como " Internet-0" (I0), que ofrecía una nueva -pero compatible- capa de comunicación por debajo de la existente Internet. Los resultados del proyecto fueron dados a conocer al gran público en la edición de octubre de 2004 de "Scientific American" [v]. 

I0 se definió [vi] como una tecnología de codificación para llevar datagramas-IP sobre cualquier medio físico por medio de impulsos eléctricos, ópticos, de radio o acústicos, que transmitían 0s y 1s de manera análoga a los puntos y rayas del código Morse. Esto aportó  simplicidad e independencia del medio, siguiendo el espíritu de "IP-sobre-todo" -"IP-over-everything"-. 

De ese modo los datos podrían ser enviados a través de un cable, impresos en una página o grabados en una llave, todos utilizando la misma codificación I0.

Además, utilizando I0, la idea original de unir redes de ordenadores en un todo continuo -el "inter" en "Internet"- podía extenderse a redes de todo tipo de dispositivos, un concepto conocido como "interdevice internetworking"; esto es, una red para conectar todas las cosas, en la que todas pudieran intercomunicarse e interoperar. 

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 146, 25.9.2015. Referencia: Especial/IoT, pg.36 – "IoT: Cuando las cosas comiencen a pensar" – María José de la Calle.  

---------------------------

[i] Gershenfeld, Neil. (1999). "When Things start to Think". Canada: Fitzhenry & Whiteside Ltd.    url [a 25.10.2015]: http://www.amazon.com/When-Things-Start-Think-Gershenfeld/dp/080505880X/ref=mt_paperback?_encoding=UTF8&me= 

[ii] url [a 25.10.2015] http://whatis.techtarget.com/definition/Internet-of-Things 

[iii] "Bits are as insubstantial as the ether, but they tend to be packaged in hard boxes. Hardware and software must merge into softwear." MIT’s Nicholas Negroponte and Neil Gershenfeld write in “Wearable Computing” in Wired (Dec 1995). url [a 25.10.2015] http://www.wired.com/1995/12/negroponte-54/ 

[iv] "one in which the increasing “availability” of processing power would be accompanied by its decreasing “visibility”. Mark Weiser. Extraído de "ITU Internet Reports 2005: The Internet of Things". url [a 25.10.2015] http://www.itu.int/dms_pub/itu-s/opb/pol/S-POL-IR.IT-2005-SUM-PDF-E.pdf 

[v] N.Gershenfeld, R.Krikorian & D.Cohen. "Scientific American", oct-2004, "The Internet of Things". url [a 25.10.2015] http://cba.mit.edu/docs/papers/04.10.i0.pdf 

[vi] url [a 25.10.2015] http://rbeverly.net/research/old/i0/draft-gershenfeld-i0- 00.ps 

 

La presencia de la mujer en la profesión informática. Su contribución desde los inicios.

Sunday, 11 October 2015 Maria Jose de la Calle Posted in iTTi Views

Dedicatoria 

Este artículo está dedicado a tres mujeres con las que tuve la suerte de empezar a trabajar allá por los años ochenta, y que me enseñaron y apoyaron en esos difíciles momentos, así como a todas con las que posteriormente he trabajado a lo largo de mi carrera profesional, mujeres todas ellas muy inteligentes y valiosas, universitarias, pero que no han conseguido llegar a puestos de dirección de las empresas.

Unas, han sido apartadas del mundo laboral con la disculpa de estos tiempos de crisis, otras siguen trabajando pero sin moverse del puesto que vienen ocupando desde hace muchos años, sin promoción ni reconocimiento, cuando muchos de sus (nuestros) compañeros masculinos ocupan puestos más altos, sin razón alguna de valía profesional para descartarlas.

No quiero decir que por ser mujer haya que promocionar a las personas, digo todo lo contrario, que a lo largo de mi carrera profesional he visto un límite que la mujer no ha podido (no la han dejado) sobrepasar. ¿No había ninguna lo suficientemente competente para evolucionar en su carrera?

Todas ellas estaban (están) muy cualificadas ya que si no, ni siquiera hubieran sido contratadas. Además, creían en lo que hacían y, por tanto, aplicaban una pasión y unos criterios de calidad a su trabajo, en la mayoría de los casos ya olvidados.

Ellas han acabado desencantadas de esta creativa y multifacética profesión. Quizás, este es otro motivo de la disminución de estudiantes femeninas en esta disciplina. Es decir, que han visto cómo sus predecesoras más cercanas han realizado un esfuerzo inútil en pro de conseguir una mejora para la posición de la mujer en el mundo laboral a través de la oportunidad que esta nueva profesión ofrecía.

Pero la historia no ha acabado... 

* *

La mujer ha participado desde el inicio en la profesión informática, tal y como se refleja en multitud de casos de mujeres brillantes que han contribuido y están contribuyendo a la profesión objeto de este artículo[i]. Si alguien lo pone en duda, ello será debido a la falta de difusión que se les ha dado, al contrario de lo ocurrido cuando los protagonistas han sido los hombres, o a la apropiación de sus ideas y logros por parte de los participantes masculinos en sus mismos proyectos. 

Las contribuciones que aquí les presento, están, mayoritariamente, relacionadas con funciones de más nivel de abstracción -software- que la propia máquina -hardware-, más relacionadas con las Matemáticas -todos los casos que se relacionan en este artículo son de mujeres que han estudiado Matemáticas- que con la ingeniería; más relacionadas con los modelos que con los artefactos físicos. 

Estas contribuciones han acompañado al desarrollo de los ordenadores desde el principio y han hecho que estas máquinas realizaran las funciones para las que habían sido ideadas. Sin los programas no hubieran sido más que cables y válvulas.

Ha habido muchos intentos de sacar a la luz esta labor poco conocida -y menos reconocida- de las mujeres. Una muy significativa fue la convocatoria realizada en el año 2009 por Suw Charman- Anderson[ii] a todo el que quisiera escribir en su blog, columna de periódico, o cualquier publicación, un artículo el jueves 24 de Marzo sobre mujeres excelentes en tecnología. Esta iniciativa dio origen a la celebración del "Dia de Ada Lovelace"[iii] en conmemoración de los logros de las mujeres en ciencia, tecnología, ingeniería y matemáticas (STEM, del inglés “science, technology, engineering, maths”). Este día ha quedado fijado en los martes que estén a mitad del mes de octubre de cada año -para este año 2015 será el 13-. 

Paradójicamente, a pesar de los esfuerzos realizados por las campañas de difusión y del avance en el acceso a la educación y al trabajo por parte de la mujer , se ha notado un claro retroceso de participación femenina desde los años ochenta tanto en los estudios académicos como en el mundo laboral relacionado con las TI.

Antes de la llegada del ordenador: Ada Lovelace (siglo XIX).

El que al día de la celebración de los logros de la mujer en STEM se le haya dado el nombre de "El Día internacional de Ada Lovelace” no ha sido un capricho. Se considera que Ada Lovelace (1815- 1852) fue la primera persona programadora de computadoras: ¡una mujer![iv].

De la mano de su madre, quien se había formado con profesores de Cambridge en Literatura, Filosofía, Ciencias y Matemáticas, fue educada, a su vez, en Ciencias y Matemáticas. En 1832 conoció a Charles Babbage en una conferencia sobre su “máquina diferencial”, que posteriormente daría lugar a las ideas sobre la “máquina analítica”, un concepto más complejo sobre el cual Babbage nunca publicó nada.

Ada se interesó por la máquina y por su base matemática, y fue la encargada de traducir un artículo del ingeniero italiano, Luigi Federico Manabrea, donde se describía la reciente "máquina analítica" de Babbage. En dicha traducción ella añadió sus propias notas, tres veces más largas que el texto original, explicando cómo la máquina de Babbage funcionaría en el caso de que se construyera. La última nota, la nota "G", era un algoritmo para calcular las tablas de números de Bernoulli. Esta nota está considerada como el primer programa de ordenador, lo que le valió ser recordada como la precursora de esa disciplina.

La traducción junto con las notas fueron publicadas en Taylor’s Scientific Memoirs en 1843[v].

Ada fue, de ese modo, la precursora de la “Ciencia de la Computación”, mucho antes de que se construyera el primer ordenador. En 1979 el Departamento de Defensa de los Estados Unidos dio, en su memoria, el nombre de ADA a un nuevo lenguaje de programación, desarrollado durante aquella década 70 por encargo del propio Departamento.

Los primeros ordenadores y las "codebreakers"

Un salto de 100 años nos acerca a la época de "Colossus”, el primer ordenador electrónico programable, desarrollado por Tommy Flowers y que empezó a operar en diciembre de 1943. Fue construído en Bletchley Park para ayudar a descifrar los mensajes interceptados a los alemanes durante la II Guerra Mundial.

Para hacerlo funcionar se precisaba de un elevado número de operadores y especialistas, lo que supuso que, en los años en que se estuvo trabajando allí (1941-1945), unas nueve mil personas trabajasen en el complejo de las cuales seis mil seiscientas eran mujeres.

El secretismo que rodeó a Betchley durante y después de la guerra hizo que los trabajos llevados a cabo en esta finca, situada a unos 80 kilómetros al norte de Londres -incluidos los de las mujeres que habían tomado parte en ellos- no salieran a la luz, hasta que, en los años setenta, el parque dejó de ser un secreto, revelándose entonces, no obstante, sólo los nombres de cuatro de aquellas jóvenes, reconocidas oficialmente como especialistas en cifra: Margaret Rock (1903-1983), Ruth Briggs (1920-2005), Mavis Lever (1921-2013) y Joan Clarke (1917-1996), esta última como miembro del equipo de Alan Turing que estuvo al frente del descubrimiento del código “Enigma” de la Armada alemana.

Casi cincuenta años después los nombres de estas mujeres todavía no han ocupado el lugar que les corresponde. ¡No habrá sido por falta de tiempo!. En junio del 2014 Betchley Park abrió sus puertas convertido en museo. En él se exhibe, en honor de las mujeres que trabajaron allí, una única fotografía coral en la que, de forma anónima, aparecen muchas de ellas. En cambio sí se pueden observar los retratos personales de Alan Turing, Dilly Knox, Alastair Denniston, Gordon Welchman y así hasta treinta jefes y especialistas en cifra -todos varones, claro-.

El reciente éxito cinematográfico "The Imitation Game” se centra precisamente en la historia del equipo de Alan Turing, que compartió espacio en Bletchley con el equipo de “Colossus”, aunque éste es un aspecto que no aparece en la cinta.

Quién sí aparece, y que constituye la única excepción a esta "amnesia", es la citada Joan Clarke junto a sus compañeros varones, y, como ellos, en calidad de especialista en cifra. Joan había estudiado en la Universidad de Cambridge, donde obtuvo un doble título en Matemáticas; sin embargo, antes de entrar en el equipo de Alan Turing, pese a sus credenciales académicas, le había sido asignado un puesto de secretaria. Su brillantez se evidencia en la rapidez con la que pasó a formar parte del equipo del matemático. 

ENIAC y Las "ENIAC girls"

Casi contemporáneo a “Colossus” pero al otro lado del Atlántico, aparece la ENIAC, (por su nombre en inglés Electronic Numerical Integrator And Computer) calculadora digital de propósito general. Se construyó en la Universidad de Pensilvania como un encargo del ejército de los EEUU, fundamentalmente para el cálculo de trayectorias balísticas. Los que han pasado a la historia como sus creadores, han sido los ingenieros John Presper Eckert y John William Mauchly, a quienes se debe el “hardware”. Sin embargo para realizar los cálculos para los cuales había sido creada se necesitaba algo más, la programación de la máquina. Y de ello se ocuparon 6 mujeres, hábiles matemáticas y lógicas, que iban inventando la programación a medida que la realizaban, las llamadas "ENIAC girls". 

Sus nombres Betty Snyder Holberton (1917-2001), Jean Jennings Bartik (1924-2011), Kathleen McNulty Mauchly Antonelli (1921-2006), Marlyn Wescoff Meltzer (1922-2008), Ruth Lichterman Teitelbaum (1924-1986) y Frances Bilas Spence (1922-2012). 

Es más, la ENIAC se presentó en público el 15 de febrero de 1946, y el programa usado como demostración en la presentación fue el cálculo de una trayectoria y corrió a cargo de Elizabeth Jean Jennings y Elizabeth Snyder. Esta última está considerada como una de las mejores programadoras del grupo y participó poco después en el UNIVAC I contribuyendo al desarrollo del lenguaje C-10, prototipo de los lenguajes de programación modernos. 

A pesar de todo ello, estas mujeres prácticamente no aparecen en los libros de historia de la computación, y fueron silenciadas durante más de cuarente años, aunque se las podía ver en alguna fotografía de la máquina, llegándose incluso a decir hasta la década de los ochenta, que eran sólo modelos que posaban junto a la máquina ("refrigerator ladies"). 

Nadie había programado jamás un computador así y la única herramienta práctica disponible era el diagrama lógico de la máquina. Ellas sentaron las bases para que la programación fuera sencilla y accesible para todos, crearon el primer conjunto de rutinas, las primeras aplicaciones de software y las primeras clases en programación. Su trabajo modificó drásticamente la evolución de la programación entre las décadas de los años cuarente y cincuenta [vi]. 

UNIVAC y Grace Murray Hopper

Siguiendo la pista de los creadores de "Colossus", los ingenieros Mauchly and Presper dejaron la Universidad de Pensilvania y fundaron en 1946 su empresa, "Electronic Control Company", posteriormente rebautizada como "Eckert-Mauchly Computer Corporation" (EMCC), obteniendo financiación para construir otro ordenador, la UNIVAC[vii] (del inglés UNIVersal Automatic Computer) el primer ordenador “mainframe” comercial para aplicaciones de negocio y sector público, y que vio la luz en 1951. 

En 1949 fichan a Grace Murray Hopper (1906-1992), doctora en matemáticas, quien previamente había trabajado en Harvard en el proyecto de computación de la Mark I para la que desarrolló varias aplicaciones contables, siendo, no obstante en EMCC dónde realizó sus más importantes contribuciones a la programación, empezando en 1952 por el primer compilador de la historia, el A- 0, con sus versiones posteriores A-1 y A-2, y a finales de 1956 con el compilador B-0 o FLOW- MATIC, como se le conoció posteriormente, sentando así las bases del COBOL. Si bien es cierto que no participó en su desarrollo, sí lo hizo del comité formado para su creación en 1959 y posteriormente, de los comités de estandarización del COBOL y el FORTRAN. 

Visto en perspectiva, Grace Murray Hopper tuvo más suerte que sus coetáneas en cuanto a proyección pública. Está considerada como la madre del COBOL y, entre los numerosos reconocimientos que posee, está el otorgado en 1969 al ser nombrada "Hombre del año" en ciencias de la computación (Computer Science Man-of-the-Year Award) de la mano de la Data Processing Management Association [viii]. Curioso lo de "Man-of-the-Year". 

Los lenguajes de programación: Jean E. Sammet

En el comité formado para el desarrollo del COBOL, junto a Grace Murray se sentaba otra mujer: Jean E. Sammet (1928), matemática y científica en computación. 

Fué contratada por IBM en 1961 para organizar y gestionar el “Boston Programming Centre” y en 1962 desarrolló el lenguaje de programación FORMAC (FORmula MAnipulation Compiler), un lenguaje para la manipulación de fórmulas y expresiones matemáticas [ix]. 

Su carrera ha estado centrada en los temas de investigación y desarrollo en el área de los lenguajes de programación, llegando, en 1979, a ser “Software Technology Manager"[x] en IBM. Ha sido, asímismo, la primera persona que ha escrito en extensión sobre la historia y clasificación de los lenguajes de programación, publicando en 1969 el libro "PROGRAMMING LANGUAGES: History and Fundamentals". 

Smalltalk y Adele Goldberg

En los años setenta, se desarrolló en el Xerox Palo Alto Research Center (PARC) el lenguaje de programación Smalltalk [xi] así como los conceptos relacionados con la programación orientada a objetos. Una de las personas que formaban parte del equipo liderado por Alan Kay era Adele Goldberg (1945).

Adele Goldberg[xii] se graduó en Matemáticas en la universidad de Michigan y se doctoró en Ciencias de la Computación en la universidad de Chicago. En 1973 comenzó a trabajar en PARC como ayudante de laboratorio, pasando posteriormente a entrar en el “System Concepts Laboratory” donde con Alan Kay y su equipo desarrollaron el Smalltalk. 

En 1988 dejó Xerox y fundó “ParcPlace System”, empresa dedicada a la creación de herramientas de desarrollo para aplicaciones basadas en Smalltalk.

Internet: Radia Perlman, la madre de internet.

Aunque a Radia Perlman no le gusta mucho que la llamen así, ya que, según sus palabras "Esto es excesivo ya que no creo que un solo individuo merezca ser reconocido como el inventor de Internet" [xiii], fué ella la que en 1985, mientras trabajaba para la ya desaparecida Digital Equipment Corporation (DEC) desarrolló el STP (spanning tree protocol), fundamental para permitir la redundancia de caminos en las redes de área local. Este protocolo transformó Ethernet desde una tecnología que podía trabajar solamente con algunos nodos a una distancia reducida, hacia algo que podía crear una gran red, algo indispensable para las comunicaciones en red y, por extensión, para Internet. 

Por la misma época, desarrolló el protocolo que posteriormente ISO adoptó como IS-IS, protocolo de enrutamiento utilizado por muchos de los proveedores de servicios de Internet.

Radia Perlman obtuvo su grado, máster en Matemáticas y título de doctora en Ciencias de la Computación en el MIT. Experta en protocolos de red y en seguridad, a lo largo de su carrera ha desarrollado más de 100 patentes [xiv]. 

Después de su época en DEC, trabajó para Sun Microsystem, dónde desarrolló unas 40 patentes, y en 2010 se unió a INTEL, como responsable de tecnología de redes y seguridad (director of Network and Security Technology).

Últimamente ha estado trabajando en el proyecto TRILL (Transparent Interconnection of Lots of Links), protocolo para la interconexión de centros de datos, que permite el reenvío de paquetes Ethernet utilizando IS-IS en lugar de STP.

Futuro: las estudiantes hoy.

Los ejemplos mostrados constituyen una pequeña muestra -en cantidad, no en calidad- de lo que ha sido, y sigue siendo, la aportación de la mujer a este campo desde sus más tempranos inicios; una aportación que no ha dejado de crecer, alentada por la masiva incorporación femenina a la Universidad durante la segunda mitad del siglo pasado. Pongamos por caso la Facultad de Informática de Barcelona que en la década de los ochenta llegó a tener un alumnado formado en más de un 40% por mujeres, según declaraciones de Nuria Castell, decana de dicha facultad, realizadas el 16 de julio del 2014 para "Womenalia"[xv].

Sin embargo no deja de ser paradójica la inversión de esa tendencia que se observa en la actualidad, justo cuando se han diluido muchísimo las barreras de género a la hora de acceder a la formación y al empleo. Nuria Castell, en la misma entrevista, aporta las siguientes cifras de nuevo acceso femenino a la Facultad de Informática: 10% en el año 2010, 6% en el año 2011, 9% en el año 2012 y 7% en el año 2013, cifras muy lejanas de ese más del 40% antes citado.

Esa misma tendencia se viene observando en EE.UU donde, desde que en 1984 experimentaran un pico histórico del 37 % de mujeres entre los alumnos graduados en licenciaturas relacionadas con las TI, se ha producido un declive llamativo hasta llegar a un 26% en 1998 y a un 12% en 2011. Todo en un momento en el que instituciones tanto públicas como privadas están promoviendo más que nunca campañas e iniciativas para alentar a las mujeres a estudiar ese tipo de disciplinas.[xvi] [xvii].

En el mundo, según el informe "Mujeres programadoras y mujeres hackers"[xviii] publicado en 2011, se viene apreciando, con carácter general, el mismo declive y, a excepción de algunos países asiáticos, el porcentaje de mujeres estudiando y/o trabajando en ámbitos relacionados con las TI es sistemáticamente mas bajo que el de los hombres. No obstante, ha de señalarse que existe una tendencia general a la baja en el número de estudiantes -hombres y mujeres, aunque sobre todo mujeres- que se sienten atraídos por los estudios relacionados con las TI. 

Este llamativo descenso registrado en casi todo el mundo, no responde al hecho, como alguien pudiera pensar, de que la mujer se está replegando a disciplinas "tradicionalmente" reservadas para ella, como las Humanidades. En absoluto. Observando el caso español a través del último informe de "La Universidad en cifras" del año 2012 [xix], se aprecia que el porcentaje de mujeres de entre todos los alumnos que comenzaron el primer año de carreras técnicas en el curso académico 2010/2011 era del 23% solamente. En cambio en Ciencias, el 55% eran mujeres y en Ciencias de la Salud, el 72%. Es decir, Ciencia y Mujer no están reñidos. 

La falta de interés por las TI puede deberse a muchos factores. Uno, que se puede leer en muchos informes y artículos -algunos ya apuntados aquí- es la imagen dada en los medios del joven raro y solitario sólo frente a una máquina, la imagen de personas poco sociables, todo lo contrario a la imagen de la mujer como persona comunicativa. 

Y otro que me atrevería a apuntar es el enfoque actual de los estudios de TI que parecen seguir más los patrones de la Ingeniería -se pasó de "Licenciado en Informática" a "Ingeniero de Informática"- que de la Ciencia. Habría que trasladar el discurso de las TI a la Matemáticas -algoritmos de tratamiento de la información-, de la Física -estado sólido, ordenador cuántico, fibra óptica-, Neurociencia -máquinas que aprenden- etc. tanto que disciplinas base para las TI, y, al mismo tiempo, destinatarias de la contribución de las TI a sus respectivos desarrollos. 

La evolución y crecimiento de las TI conlleva mucho conocimiento interdisciplinar, siendo las propias TI una disciplina que tiene su aplicación en todos los ámbitos de la Sociedad y de las actividades humanas.

Para terminar, mencionar un artículo que Pete Warden publicó en su blog el 5 de octubre del 2014 titulado "Why nerd culture must die"[xx]. En dicho artículo Warden sugiere que tiene que haber muchas cosas equivocadas en un sector -la industria tecnológica en Silicon Valley- tan desequilibrado, como muestra el hecho de que el no de mujeres graduadas en Ciencias de la Computación haya ido disminuyendo drásticamente desde los años ochenta.

Las TI no son los "nerds" de Silicon Valley. Son mucho más. 

* * *

Este artículo fué publicado originalmente por la revista NOVÁTICA, nº 232, abril-junio 2015. Referencia: visiones sobre la mujer en la profesión informática, NOVÁTICA 232, pg. 51 – La presencia de la mujer en la profesión informática. Su contribución desde los inicios – María José de la Calle.  

--------------------------------------------

[i]  Véase la relación que nos ofrece Wikipedia en https://es.wikipedia.org/wiki/Mujeres_en_informática 

[ii] Puede encontrarse la convocatoria en http://www.pledgebank.com/AdaLovelaceDay 

[iii] Ada Lovelace Day: http://findingada.com 

[iv] Véase http://findingada.com/book/ada-lovelace-victorian-computing-visionary/ Consultado feb-2015

[v] Véase https://books.google.es/books?id=0gZ7Bo2NnzAC&pg=PA243&dq=sketch+of+the+analytical+engine&hl=es&sa=X&ved=0CB0Q6AEwAGoVChMIgYr29Li6yAIVSNoaCh1IQw7y#v=onepage&q=sketch%20of%20the%20analytical%20engine&f=false 

[vi] Una buena referencia sobre esta historia, y en la cual me he basado para esta pequeña reseña, es el artículo "ENIAC: una máquina y un tiempo por redescubrir” publicado en Novática-229 julio-agosto de 2013, en página 59 y ss. http://www.ati.es/novatica/2013/224/nv224sum.html  

[vii] Véase https://en.wikipedia.org/wiki/UNIVAC 

[viii] Véase https://es.wikipedia.org/wiki/Grace_Murray_Hopper 

[ix] Véase http://dl.acm.org/citation.cfm?id=808916 

[x] Véase http://www.computer.org/web/awards/pioneer-jean-sammet  

[xi] Véase  http://es.wikipedia.org/wiki/Smalltalk 

[xii] Véase http://en.wikipedia.org/wiki/Adele_Goldberg_(computer_scientist) 

[xiii] "It's overreaching because I don't think any single individual deserves credit for inventing the Internet". Véase http://www.siliconvalleywatcher.com/mt/archives/2011/04/profile_of_radi.php 

[xiv] Véase http://solutionists.ieee.org/radia-perlman/ 

[xv] Véase http://www.womenalia.com/es/hoy-en-womenalia/80-entrevistas/4233-nuria-castell-decana-de-la-facultad-de-informatica-de-barcelona-necesitamos-la-vision-femenina-en-el-sector-tecnologico 

[xvi] Véase http://en.wikipedia.org/wiki/Women_in_computing 

[xvii] Véase http://www.minnpost.com/politics-policy/2008/06/doesnt-compute-more-women-enter-scientific-fields-their-numbers-computer-sci 

[xviii] Véase http://www.rebelion.org/docs/141550.pdf 

[xix] Véase http://www.crue.org/Publicaciones/Documents/UEC/LA_UNIVERSIDAD_ESPANOLA_EN_CIFRAS.pdf 

[xx] Véase http://petewarden.com/2014/10/05/why-nerd-culture-must-die/ 

 

El Sector Público y la Seguridad

Friday, 11 September 2015 Maria Jose de la Calle Posted in iTTi Views

"¿qué nos protege? Supongo que los fundamentalistas religiosos dirían que la fe. Los académicos, que el conocimiento. Los médicos, que la ciencia. El policía, que una pistola de nueve milímetros. El político, que la ley. Pero en realidad, ¿qué nos protege?" ( Katzenbach, John. 2007. "El hombre equivocado"). 

En esta novela el autor cuenta como un hacker a través de la red convierte la vida de una estudiante y su familia en una pesadilla.

El sector público es crítico en este tema, ya que posee información de todo tipo -direcciones y teléfonos, financiera, de salud, de formación, vida laboral, judicial, etc.-, sobre personas y organizaciones, mucha de la cual hay que entregarle por ley, como los datos fiscales o datos de identificación para el NIF o el pasaporte o el carnet de conducir, y otros pueden recabarlos, igualmente apoyados en leyes, de organizaciones con las cuales se tenga una relación contractual, como el banco o el proveedor de servicios de telecomunicaciones.

Dependiendo del tipo de información, la filtración de datos puede afectar a la privacidad y seguridad de las personas, y por ende a sus vidas, como el caso de la protagonista de la novela con la que he abierto el artículo, o al funcionamiento de una empresa.

Son muchas las noticias acerca de pérdidas o filtraciones de datos, o ataques a las instituciones públicas. Wikipedia[i] ofrece un listado de pérdidas de datos del Reino Unido, debido a malas prácticas o descuidos, como pérdida de usb's conteniendo información sin cifrar, o venta de ordenadores en eBay de hospitales sin borrar los datos de pacientes.

El pasado mes de junio se publicó la noticia, de la cual se hizo eco IT Reseller[ii] de un ataque contra el parlamento alemán con nuevas variantes del troyano bancario Swatbanker[iii], que incorporaba funciones de filtro para el dominio “Bundestag.btg”. Cualquier ordenador infectado que accediera a la intranet del Bundestag, transferiría a los atacantes los datos del "cliente", introducidos en formularios, y los datos del navegador, además de las respuestas del servidor, haciéndose tanto con los datos de acceso como con información detallada del servidor. 

Y, también en este mismo mes de junio, un ataque de denegación de servicio a varias web del gobierno de Canadá mantuvo caídos los servicios asociados[iv].

Pero el sector público, además de su función de administrador de los bienes públicos tiene también como función garantizar la seguridad de los ciudadanos para lo que se sirve, entre otros medios, de la información que posee y recoge -supuestamente- dentro de lo que la ley le permite, ley que puede primar en ciertos casos la merma en los derechos de privacidad de los ciudadanos por mor de una mayor seguridad.

Algunos ejemplos ya conocidos serían la "Patriot Act" de Estados Unidos aprobada tras los atentados del 11-S, o la aprobación de una ley este año en el Reino Unido según la cual se pueden llevar a cabo actuaciones de hacking en equipos ajenos, o la interceptación de teléfonos de cualquier persona sin autorización judicial[v]. También, la intención del gobierno británico de prohibir el cifrado fuerte en las comunicaciones[vi], en línea con el director del FBI que argumentó que Apple y Google deben limitar la solidez del cifrado en smartphones para apoyar las iniciativas de aplicación de la Ley de Seguridad Nacional, cosa que a los ciudadanos los hace más vulnerables. ¿Pero no era el objetivo que los ciudadanos estuvieran más seguros?

En este punto y para terminar creo que viene bien una cita de hace 50 años del arquitecto inglés Cedric Price (1934-2003): “Technology is the answer, but what was the question?” 

* * *

[i] https://en.wikipedia.org/wiki/List_of_UK_government_data_losses (último acceso 11/09/2015)

[ii] http://www.itreseller.es/seguridad/2015/06/el-parlamento-aleman-atacado-por-malware (último acceso 11/09/2015)

[iii] http://www.siliconweek.es/security/descubren-un-troyano-que-se-mueve-golpe-de-peticiones-de-pago-y-facturas-irreales-60054 (último acceso 11/09/2015)

[iv] http://www.tripwire.com/state-of-security/latest-security-news/canadian-government-websites-taken-down-in-cyber-attack-anonymous-claim-responsibility/ (último acceso 11/09/2015)

[v] Análisis de la actualidad internacional: “Hacia una Patriot Act del viejo continente: quo vadis Europa?”, de Angel Vallejo y Julia Rubiales – p. 7 http://www.realinstitutoelcano.org/wps/portal/web/rielcano_es/contenido? (último acceso 11/09/2015)

[vi] http://www.businessinsider.com/david-cameron-encryption-back-doors-iphone-whatsapp-2015-7?r=UK&IR=T (último acceso 11/09/2015)

 

Digitalización de la Gestión del Cambio

Thursday, 20 August 2015 Manolo Palao Posted in iTTi Views

McKinsey&Company ha publicado recientemente un sugerente artículo [i] -aquí, en inglés- sobre la digitalización de la gestión del cambio. 

El artículo comienza recordándonos que “el 70% de los programas de cambio fracasan en el logro de sus objetivos” —una tasa de fracasos que se ha venido tristemente registrando a lo largo de las dos últimas décadas.

Los autores han encontrado que diversas empresas (sobre todo B2C) han usado algunas de las herramientas TI que emplean para influir en el comportamiento de sus consumidores (p. ej.: tecnología portátil / ponible, interfaces adaptativos, integración en plataformas sociales, cuadros indicadores / salpicaderos y mensajes personalizados) para dar apoyo más eficaz y duradero a su propio cambio interno.

Identificaron 5 áreas en concreto: i) aportar a la plantilla más y mejor realimentación (feedback), justo-a-tiempo, sobre el rendimiento; ii) personalizar la vivencia del personal, localizando, identificando, indicando los tiempos en los datos relativos a la tarea en curso específica; iii) soslayando la jerarquía, promoviendo la comunicación y cooperación horizontal: iv) desarrollando empatía, comunidad y propósito compartido mediante la promoción de foros, cuadros de indicadores compartidos, visualización de tareas y ludificación (gamification); y v) mostrando el progreso en tiempo real, ocasionalmente mostrando las contribuciones individuales a los logros.

A nuestro entender, no cabe duda de que las herramientas TI, hábilmente empleadas, pueden y deben asistir en la difícil empresa de gestión del cambio. Por tanto, bienvenidas sean las citadas prácticas.

Pero, carentes de estudios multivariantes, ponemos en cuestión la relevancia de dichas herramientas en proyectos de esta naturaleza, en los que —conforme a todas las principales escuelas— son las cuestiones micropolíticas, sociológicas y psicológicas las principales variables explicativas de un cambio con éxito sostenido. En tanto tenga lugar un avance significativo en el tratamiento de estas variables, hay poco motivo o ninguno para tirar cohetes. 

* * *

[i] Boris Ewenstein, B. et al. (July 2015). “Changing change management”.  Insights & Publications.  http://www.mckinsey.com/insights/leading_in_the_21st_century/Changing_change_management?cid=digital-eml-alt-mip-mck-oth-1507  

 

Digitization of change management

Thursday, 20 August 2015 Manolo Palao Posted in iTTi Views

McKinsey&Company has recently published a provoking article [i] on the digitization of change management. 

The article starts reminding us that “70 percent of change programs fail to achieve their goals”, a failure rate that has sadly been recorded at similar levels throughout the past two decades. 

The authors have found that companies (mainly B2C) have leveraged some of the IT tools they use to influence their consumer behavior (e.g.: wearable technology, adaptive interfaces, integration into social platforms, digital dashboards and personalized messages) to support more effective and lasting their own internal change. 

They identified 5 particular areas: i) providing more, better, just-in-time performance feedback to the staff; ii) personalizing the staff experience, localizing, identifying and timing data related to the specific task at hand; iii) sidestepping hierarchy, promoting horizontal communication and cooperation; iv)  building empathy, community, and shared purpose by promoting forums, shared dashboards, tasks visualizations and gamification; and v) demonstrating progress in real time, eventually showing individual contributions to the achievements.  

In our view, there is no doubt that IT tools, skillfully used, may and should assist in the difficult undertaking of change management. Accordingly, welcome the practices mentioned.

But, lacking multivariate studies, we question the relevance of said tools in projects of this nature, where —according to all mainstream schools— micro-political, sociological and psychological issues are the key factors of a successful and enduring change. Until a breakthrough takes place in dealing with those factors, there is little or nothing to write home about. 

* * *

[i] Boris Ewenstein, B. et al. (July 2015). “Changing change management”.  Insights & Publications.  http://www.mckinsey.com/insights/leading_in_the_21st_century/Changing_change_management?cid=digital-eml-alt-mip-mck-oth-1507 

 

To find out more about the cookies we use and how to delete them, see our privacy policy.

I accept cookies from this site.
EU Cookie Directive plugin by www.channeldigital.co.uk