Follow us on:
Perspectives

Articles tagged with: Big Data

Datos y el Talento Analítico

Monday, 08 June 2015 Maria Jose de la Calle Posted in iTTi Views

El software empresarial como ERP, CRM, BI, etc aparte de proporcionar una ayuda para la gestión de la empresa en la forma de aplicaciones y modelos de datos más o menos ajustables a cada entidad, tienen, sobre todo las BI, una función que es la de proporcionar lo que se ha dado en llamar "inteligencia de negocio" en la forma de informes, dirigida a los usuarios finales que no son otros que los tienen que tomar decisiones sobre el mismo. 

Hoy día, la "inteligencia de negocio" a pasado al llamado "Big Data" (grandes datos), término bajo el que se agrupan, por una parte el concepto de una tal cantidad de datos que desborda la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable, y por otra, y por extensión, las herramientas necesarias para tratar dichos datos, y sus productos.

La tecnología ha evolucionado para tratar con los tipos de datos que ahora se producen -y se recogen- en cualquier sitio tanto por personas como por máquinas. La capacidad de acceso a datos útiles crece continuamente, pero, según el estudio llevado a cabo por el MIT y SAS "TheTalent Dividend" [i] , las empresas no son ahora más eficaces para definir una estregia utilizando el conocimiento que los datos proporcionan. Ya hay tecnología suficiente para recoger, almacenar, clasificar, extraer y procesar los datos que sean necesarios en cada caso, pero no se sabe como llegar desde ellos al negocio.

El problema que se plantea, según este estudio, va un poco más allá de la tecnología y se trataría de responder a la pregunta de cómo crear valor para el negocio a partir de la gran cantidad y variedad de datos de los que se dispone. Uno de las conclusiones del estudio es que las empresas que combinan habilidades analíticas con el conocimiento del negocio tienen más posibilidades de obtener ventajas competitivas con los datos.

Parece claro que si lo que se busca son herramientas de ayuda a la toma de decisiones, haya que conocer el negocio para hacer las preguntas adecuadas en su propio lenguaje, pero estas deben ser traducidas a una perspectiva de los datos para tratar con y obtener de ellos las respuestas buscadas. Los informes extraídos de los datos que se presenten deben ser completos, precisos, relevantes y consistentes, y entregados en tiempo. 

Esto parece que constituye una gran brecha, a cerrar por las personas que posean habilidades analíticas, con conocimientos de negocio, por una parte, y técnicos por otro.

No es de extrañar, pues, que el rango de dichas habilidades, perfiles y categorías en las organizaciones se haya ampliado en estos últimos años. No sólo analistas (data analysts) sino también administradores de datos (data stewards) o científico de datos (data scientists). También, nuevos perfiles ejecutivos como chief data officers, chief analytics officers o chief medical information officers, han surgido para garantizar que el conocimiento analítico puede ser aplicado a temas de estrategia de negocio. 

Para cubrir las necesidades de dichos perfiles, las empresas recurren a distintos planes con una serie de acciones como:

• Dar preferencia a las personas que ya tienen habilidades analíticas cuando contratan o para promocionarlas.

• Desarrollar las habilidades analíticas en su propio personal a través de formación.

• Integrar nuevos talentos con trabajadores más tradicionales dedicados a los datos.

Por otra parte, debido a la creciente demanda de estos nuevos perfiles, en EEUU hay ya más de 70 masters en estas materias, para ayudar a futuros profesionales a desarrollar dichas habilidades.

En España la Universidad de Valladolid (UVA) ha decidido no quedarse atrás y ofrece el primer título que se imparte en España sobre Big Data, según fuentes de la institución universitaria, con un doble grado de Estadística e Informática que ha comienzado a impartirse este curso 2014/2015. [ii]

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 143, junio 2015. Referencia: Análisis/ Opinión, pg. 13 – "Datos y el Talento Analítico" – María José de la Calle. 

-----------------------------------------

[i] S. Ransbotham, D. Kiron and P.K. Prentice, “The Talent Dividend: Analytics talent is driving competitive advantage at data-oriented companies,” MIT Sloan Management Review, April 2015. URL: http://sloanreview.mit.edu/projects/analytics-talent-dividend/ último acceso 8/06/2015

[ii] http://www.elmundo.es/economia/2014/07/15/53c3f28322601d0f1e8b4593.html último acceso 8/06/2015 

 

"Big Data", ¿un nuevo concepto?

Wednesday, 15 May 2013 Maria Jose de la Calle Posted in Data Science

Las siguientes reflexiones tratan de analizar el nacimiento de un concepto que se apoya en, y supera, la estadística y el análisis de datos convencionales, establecidos a lo largo de los siglos, como consecuencia  de la actual explosión en la generación de datos e información sobre personas, máquinas y sus relaciones.

Hace algún tiempo que el término Big Data aparece con frecuencia como fenómeno nuevo, a propósito de nuevas herramientas de ayuda al análisis de datos para fines diversos, fundamentalmente comercial, científico, político, criminal, etc.

Ese análisis está dirigido a obtener información sobre una persona, un grupo de personas o una institución, a partir de comportamientos pasados -datos recopilados- de sus situaciones actuales, relaciones ocultas y, lo que es más discutible, comportamientos futuros de la persona, ente o grupo que se estudia.

Todo ello es fundamental en el proceso de toma de decisiones tanto en el ámbito privado corporativo como en el ámbito público.

Pero esto no es nuevo. Tampoco lo son ni el tratamiento de los datos, propiamente dicho, ni la gran cantidad de datos a tratar.  

La ciencia ha empleado el análisis de datos y se ha enfrentado al tratamiento de una gran cantidad de datos en complejas simulaciones de procesos físicos -Meteorología, por ejemplo-, en investigaciones relacionadas con procesos biológicos y ambientales, etc. Este mismo fenómeno ha sucedido en diversos sectores empresariales -banca, seguros, tarjetas de crédito, terminales de punto de venta, etc. No se puede  dejar de mencionar a las agencias de inteligencia, creadoras de sistemas como ECHELON, ADVISE, NarusInsight, etc.

De igual modo, la Estadística, propiamente dicha, tampoco es una disciplina nueva. De hecho, el término fue acuñado en Alemania -Statistik-, por Gottfried Achenwall en 1749, para referirse al análisis de datos del Estado, es decir, la "ciencia del Estado" (o más bien, de la ciudad-estado), y ya en el siglo XIX el término estadística adquirió su actual  significado de recolectar y clasificar datos de la mano del militar británico Sir John Sinclair (1754-1835).

¿Entonces, por qué un nuevo concepto? ¿Dónde reside la novedad?

Lo que actualmente se entiende por Big Data, es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados y tratados en un tiempo razonable.

Los tamaños que hoy se señalan para el  Big Data se encuentran en una permanente y creciente evolución. Así, en 2012 se citaban  tamaños entre la docena de terabytes y varios petabytes de datos en un único data set (conjunto de datos).

Sirvan las siguientes cifras como ilustración de lo afirmado:

·        El telescopio de “Sloan Digital Sky Survey” en Nuevo México, que inició su actividad en el 2000, recogió en una década 140 terabytes de información.

·        Wal-Mart maneja más de un millón de transacciones de clientes cada hora, alimentando bases de datos estimadas en más de 2.5 petabytes.

·        Facebook almacena cuarenta mil millones de fotografías.

·        El descifrado del genoma humano implica el análisis de tres mil millones de pares base, lo que inicialmente suponía un esfuerzo de 10 años y ahora se logra en una semana.

Por otro lado, con la llegada de  la miniaturización de los sistemas electrónicos que pueden formar parte de cualquier dispositivo, entre ellos sistemas de medida, y, particularmente, de Internet y su poder de comunicación máquina-máquina y persona-máquina, hoy se dispone de recolectores de datos de todas las actividades humanas por todas partes -tarjetas de crédito, dispositivos móviles, ordenadores, cámaras en la calle y en establecimientos, etc-, y de recolectores de datos de máquinas situadas a nuestro alrededor o sensores ambientales.

Unido a todo ello, ha aumentado en órdenes de magnitud la capacidad de computación de los ordenadores. Ahora cualquiera lleva en su bolsillo un smartphone, con una potencia de cómputo superior a la de los ordenadores de la nave Apolo. 

Consecuentemente, la novedad del Big Data parece estar, únicamente, en su magnitud y en el desarrollo de las herramientas adecuadas para tratar  dichas cantidades  de datos de forma que se obtengan resultados en un tiempo  útil para su aprovechamiento.  

Y no sólo eso,  sino que  los datos producidos son tanto estructurados como no estructurados, lo que supone un reto de almacenamiento y tratamiento.

Finalmente, está además el reto de intentar protegernos organizativa, tecnológica y regulatoriamente.

Así pues, aquí es donde nos encontramos ahora … ante la necesidad de responder a los retos planteados por ese aluvión de datos de manera tal que su análisis permita extraer un conocimiento que resulte valioso para la ciencia, los gobiernos, las empresas, y en definitiva, para la mejora de la calidad de vida de todos nosotros.  

 

La publicación de este artículo ha coincidido con la inauguración oficial del más grande radiotelescopio construido hasta ahora, el ALMA (Atacama Large Millimeter Array). Su funcionamiento consiste en un proceso de “... canalización, recepción, conversión, trasmisión, combinación y análisis” de datos del Universo, que se iniciará en  las  sesenta y seis  antenas parabólicas que lo conforman, y proseguirá en un entramado de ordenadores, uno de los cuales, El Correlacionador, está dotado de  2.912 circuitos impresos, 5.200 cables de interfaz y más de 20 millones de puntos de soldadura, con el objetivo es estudiar la diversidad de objetos y procesos físicos implicados en la formación estelar.

To find out more about the cookies we use and how to delete them, see our privacy policy.

I accept cookies from this site.
EU Cookie Directive plugin by www.channeldigital.co.uk