Follow us on:
Perspectives

El aprendizaje de las máquinas: de lo digital al algoritmo.

Thursday, 07 January 2016 Maria Jose de la Calle Posted in iTTi Views

Una de las tendencias que Gartner identifica para el 2016 es el aprendizaje avanzado de las máquinas en base a las llamadas redes neuronales profundas (deep neural nets o DNNs), sistemas que pueden aprender de forma autónoma para entender el mundo. Posibilitan el autoaprendizaje de todas las características de su entorno. Las organizaciones deben evaluar cómo aplicar estas tecnologías para ganar ventaja competitiva [i]. 

Continuando con el futuro dibujado por Gartner, los algoritmos definirán el futuro de la empresa. En una empresa algorítmica, la mayor parte de lo que sucede se producirá en el trasfondo de la empresa, a través de máquinas inteligentes, sin que las personas estén directamente implicadas. Evolucionaremos a un mundo post-app, con agentes inteligentes proporcionando dinámicamente interfaces y realizando acciones contextuales como, por ejemplo, lo que Gartner llama asistentes personales virtuales (virtual personal assistants o VPAs). 

De la empresa digital a la empresa algorítmica.  

Un ejemplo de asistente personal es la herramienta que acaba de hacer pública Google, llamada "Dubbed Smart Reply (DSR)"[ii] con la cual un dispositivo con servicio de correo podría responder automáticamente correos-e. De momento, la herramienta propone 3 breves respuestas de las cuales se puede elegir una y, si se quiere, completarla o modificarla. DSR aprende analizando gran cantidad de correos-e del servicio Gmail de una vasta red de ordenadores, las redes neuronales a las que hace referencia Gartner, llamadas así por su funcionamiento análogo a las redes neuronales de nuestro cerebro. Las redes analizan la información en base a algoritmos para aprender una tarea concreta, en este caso entender los correos y ser capaces de responderlos. 

Estos algoritmos, llamados "Deep learning", provienen de la Inteligencia Artificial (IA) de los años 80, pero es ahora con la vasta de red de comunicaciones y la enorme cantidad de datos de los que se dispone que se les está sacando todo su potencial  y  que está haciendo evolucionar rápidamente un amplio rango de servicios online, como el reconocimiento del habla en el teléfono, la traducción instantánea en Skype, el reconocimiento de caras en las imágenes que se suben a la red, las recomendaciones de cosas que nos pueden gustar o amigos que podemos hacer, al fin y al cabo campos tradicionales de la IA -reconocimiento de voz, reconocimiento de imágenes, textos- y a la robótica, con un único modelo de aprendizaje. 

Las máquinas aprenden por medio de algoritmos inspirados en cómo se cree que funciona nuestro cerebro, que son capaces de tratar grandes cantidades de datos estructurados y no estructurados, y que no tienen limitaciones teóricas sobre lo que pueden llegar a hacer. De cuantos más datos se les provea o las máquinas mismas recojan, y cuanto más largo sea el tiempo de cálculo, mejores resultados conseguirán. Por ejemplo, analizando gran cantidad de palabras habladas, pueden aprender a reconocer las órdenes dadas por voz a un teléfono. 

Y ya no habrá que escribir instrucciones precisas en las que decir a las máquinas lo que tienen que hacer, dependiendo de las situaciones tomarán decisiones en una u otra dirección sin que se les haya dado dichas instrucciones expresas escritas en un programa. 

En realidad, es nuestra forma de aprender, absorbiendo datos y situaciones desde que nacemos, creando patrones y aplicándolos a nuevas situaciones -con mayor o menor fortuna-. 

De momento, tenemos que seguir escribiendo y manteniendo máquinas con viejos y nuevos algoritmos, ¿pero por cuánto tiempo? En un artículo [iii] publicado por MIT el 15 de junio de 2015, Larry Hardesty explicaba que investigadores del MIT habían presentado  un nuevo sistema para reparar errores peligrosos de software (SW) importando funcionalidades de otras aplicaciones más seguras. En el mismo artículo se indicaba que existen "toneladas" de código fuente disponible en repositorios open-source, millones de proyectos, y una gran cantidad de estos proyectos implementan funcionalidades similares o tienen componentes con funcionalidades comunes. El sistema toma las mejores componentes que encuentra. 

Con estas toneladas de código las máquinas podrían aprender no sólo a arreglar un error, sino a programar[se] nuevas funcionalidades.  

Las máquinas ya saben leer y escribir, pueden interpretar lo que oyen -los dictáfonos, traductores, etc-, sus cámaras no sólo registran lo que ven, sino que lo interpretan -búsquedas en Google de texto a partir de imágenes o búsquedas de imágenes a partir de texto-. 

Primero fueron las herramientas para realizar actividades que nuestros músculos no podían, es decir, realizar actividades físicas, pero manejadas con energía muscular; estas evolucionaron hacia máquinas-herramientas cuyo movimiento sería autónomo a base de motores impulsados por energía térmica, hidráulica o eléctrica pero dirigidos por nuestro cerebro; posteriormente, llegaron las máquinas dirigidas por instrucciones residentes en las propias máquinas, las máquinas programables con programa almacenado, que eran -y son- capaces de realizar otro tipo de actividad, más de la mente que de los músculos, actividades automatizables y repetitivas que responden a algoritmos matemáticos. Llegó la revolución del SW. 

Al mismo tiempo que las máquinas-herramientas evolucionaban, evolucionaba el trabajo, de un trabajo con los músculos a un trabajo con la mente, de generar valor con los músculos a generar valor con la mente, lo que podríamos llamar el trabajo del conocimiento. 

Y la evolución del SW, y por ende, la evolución de lo que las máquinas pueden hacer, continúa. Ahora las máquinas están aprendiendo de todo lo que les rodea, con lo que las estamos dotando, también, de capacidad de generar valor con su mente artificial. Este valor generado por las máquinas es el que tenemos que saber utilizar para, a su vez generar más valor. Viviremos y trabajaremos con ellas en nuestro beneficio y ellas nos irán redefiniendo a nosotros. Como afirmó Marshall McLuhan (1911-1980) sociólogo canadiense "We shape our tools and then our tools shape us."[iv].

"Deep Learning" se está extendiendo más allá de Internet, poniéndolo dentro de dispositivos que pueden operar en el mundo físico, como los robots ya mencionados, o como los coches autónomos de Google, que pueden reconocer con estos algoritmos y los datos con los que se alimentan, el mundo que los rodea.   

Por si esto no fuera suficiente, además, las máquinas componen letras de canciones. En el artículo "Machine-Learning Algorithm Mines Rap Lyrics, Then Writes Its Own"[v] publicado en mayo de este año por MIT Tecnology Review se puede leer que Eric Malmi y otros compañeros de la universidad de Aalto de Finlandia han creado un algoritmo para reconocer características de algunas letras de rap y elegir otras que rimen con las anteriores y sean del mismo tema. El resultado es un algoritmo que produce letras de rap. Eric y su grupo comenzaron alimentando a su algoritmo para que aprendiera la máquina con una base de datos de más de 10.000 canciones de más de 100 artistas de rap. 

Esto empuja los límites de la creatividad de la máquina hacia la creatividad humana. ¿Y su consciencia? 

¿Acabará la humanidad manipulada por las máquinas para su bienestar, tal como una máquina consideraría dicho bienestar, como lo declara  R.(robot) Daneel Olivaw, en la novela "Fundación y Tierra" de Isaac Asimov, donde explica que ha estado manipulando la humanidad durante miles de años con el fin de protegerla? Para poder hacerlo tuvo que definir y añadirse a sí mismo la llamada ley 0 "Un robot no puede perjudicar a la Humanidad, ni, por omisión, permitir que la Humanidad sufra daño"[vi], para así poder contravenir la primera ley: "Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño". 

Ahora que estamos a tiempo debemos dotar a las máquinas de nuestros valores para que con sus tareas y acciones no produzcan una extinción de la humanidad [vii]. 

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 148, 16.12.2015. Referencia: VIII Premios ComunicacionesHoy/ Opinión, pg.14 – "El aprendizaje de las máquinas: de lo digital al algoritmo" – María José de la Calle. 

-----------------------------------

[i] "Gartner Identifies the Top 10 Strategic Technology Trends for 2016" url [a 26.11.2015] http://www.gartner.com/newsroom/id/3143521 

[ii] Respuesta Inteligente Doblada. Metz, Cade. WIRED, nov-2015 "Soon, Gmail’s AI Could Reply to Your Email for You" url [a 26.11.2015] http://www.wired.com/2015/11/google-is-using-ai-to-create-automatic-replies-in-gmail/ 

[iii] Hardesty, Larry. "MIT News", jun-2015 "Automatic bug repair" url [a 26.11.2015] http://news.mit.edu/2015/automatic-code-bug-repair-0629 

[iv] "Conformamos nuestras herramientas y ellas nos conforman a nosotros" url [a 26.11.2015] http://www.brainyquote.com/quotes/quotes/m/marshallmc141113.html  

[v] Ref:arxiv.org/abs/1505.04771: DopeLearning: A Computational Approach to Rap Lyrics Generation url [a 26.11.2015] http://www.technologyreview.com/view/537716/machine-learning-algorithm-mines-rap-lyrics-then-writes-its-own/ 

[vi] MIT Tecnology Review, may-2014. "Do We Need Asimov's Laws?" url [a 26.11.2015] http://www.technologyreview.com/view/527336/do-we-need-asimovs-laws/ 

[vii] Conn, Ariel, "future of life", nov-2015. "The Superintelligence Control Problem" url [a 26.11.2015]  http://futureoflife.org/2015/11/23/the-superintelligence-control-problem/ 

 

Comments (0)

Leave a comment

You are commenting as guest.

To find out more about the cookies we use and how to delete them, see our privacy policy.

I accept cookies from this site.
EU Cookie Directive plugin by www.channeldigital.co.uk