Hace unos días recibí un artículo relativo a la confianza en cloud de las empresas; hace referencia a una encuesta encargada por Intel Security e indica que “sólo el 9 por ciento confía completamente en los proveedores de cloud pública para mantener seguros datos sensibles”. La “buena noticia” es que el 88 por ciento de los encuestados piensa que los servicios en la nube son más seguros que hace un año. ¡Qué suerte!
Pero ¿por qué cloud computing genera semejante cantidad de dudas en el mercado de empresas? Si uno lo ve en perspectiva, el paradigma de cloud es muy antiguo. Remite al concepto de utility computing esbozado por John McCarthy, uno de los padres de la inteligencia artificial en… ¡1961!, hace más de cincuenta años, en una conferencia pronunciada en el MIT.
John McCarthy (1927-2011)
“Si los ordenadores del tipo que yo he promovido se convierten en los ordenadores del futuro, la computación se organizará algún día como un servicio público, tal como lo es el sistema telefónico… El servicio de computación podría ser la base de una nueva e importante industria.” (citado en Garfinkel, Simson (1999). Abelson, Hal, ed. Architects of the Information Society, Thirty-Five Years of the Laboratory for Computer Science at MIT. MIT Press. ISBN 978-0-262-07196-3)
Es más, esta concepción de utility computing comenzó a aplicarse masivamente en el mercado de las grandes empresas en la década de 1960. Entonces proliferaron los service bureaus, compañías de outsourcing que ponían los grandes ordenadores centrales de la época a disposición de muchas empresas, en modo de time sharing (cada uno utilizaba un tiempo y una capacidad de proceso contratada).
Conceptos como la "virtualización" de un ordenador provienen de esa época. Se hablaba también ya de "máquinas virtuales" (VM) o “particiones lógicas” (LPARs), términos que se siguen utilizando en la moderna cloud computing. ¿En aquel momento las empresas no temían por la seguridad de sus datos sensibles?
Por supuesto; para lidiar con los problemas de confidencialidad, conservación de los datos, continuidad de procesamiento y otros riesgos de seguridad (como la codificación apropiada de los programas), la industria desarrolló una serie de estándares y controles, que facilitaban el uso de estos CPD compartidos. Los service bureau implementaban estas normas y garantizaban a sus clientes el aislamiento de sus datos, la integridad de sus programas y las posibilidades de recuperación en caso de una contingencia. Y las empresas desarrollaron la figura de “auditores de sistemas”, para certificar la integridad de los mismos.
Como mínimo, se puede decir que estos antiguos CPD tenían la misma seguridad que ahora (si no menos). ¿Por qué entonces las empresas tienen tantas dudas sobre cloud computing? Una hipótesis: que los medios de transmisión de datos entre las empresas y los CPD externos son actualmente más inseguros. En los años sesenta y setenta esta transmisión se producía a través de envíos físicos de cintas magnéticas, discos y tarjetas perforadas o por comunicaciones vía módem por líneas telefónica de cobre, mediante protocolos muy simples. ¿En serio pensamos que es más inseguro ahora?
Entonces, ¿cuál es la causa de esa baja aceptación de cloud en el mercado de empresas?
En mi opinión, la razón no hay que buscarla en los riesgos de seguridad. Probablemente, nunca antes en la historia hubo tanta experiencia, normas y herramientas para la protección de los datos y sistemas de una empresa. Más aún por parte de aquéllos que están obligados a tratar con muchos clientes, exigentes por sus requisitos de auditoría y lograr una diferencia competitiva. En todo caso, pudieron existir más fallos al principio (como en toda tecnología emergente) pero, como dicen en Harvard, cloud ya ha alcanzado su “mayoría de edad”.
Por supuesto que hay riesgos, pero éstos son similares en un entorno cloud e in house. Incluso menores en un entorno cloud, dada la posibilidad de disponer, a economía de escala, de soluciones de seguridad inalcanzables para una empresa por sí misma.
Si la nube no ha despegado en el mercado de empresas, a pesar de todos los pronósticos de los analistas, se debe a una cuestión de mercado. Veamos:
- La rápida adopción del time sharing a partir de los años sesenta se debió al enorme incremento de productividad y de capacidad de producción que generaba. Resultaba inviable disponer de infraestructuras dedicadas para muchos, y compartir recursos acercaba la informática a más empresas, a un coste muy inferior y en tiempo de llegada al mercado (muchos estudios demuestran la relación entre productividad e informatización).
- Este modelo se extendió hasta la década de los ochenta cuando ocurrió otra revolución: la aparición del PC. A partir de ese momento, el acceso a la capacidad de proceso se abarató y las empresas (sobre todo las más pequeñas) volvieron a invertir en infraestructuras propias para ganar productividad.
Probablemente hay un error de mensaje. Desde hace una década aproximadamente, cuando se revalorizó el concepto de utility computing, el discurso que escuchan las empresas por parte de la industria TI está centrado en las eficiencias que se pueden lograr en las operaciones e infraestructuras de sistemas. Por eso, muchos directivos entienden que la actual oleada de cloud computing no promete una ganancia espectacular en productividad o mejoras en la capacidad y tiempos de producción, como en los hitos anteriores, y no lo ligan a la revolución digital.
Aunque ya empiezan a aparecer algunos modelos que estiman un impacto en la productividad, en general el business case que desarrollan muchas empresas se limita a reducir CAPEX y optimizar los costes operativos de TI en una organización. Pero como hemos publicado anteriormente en este blog, cloud es fundamental en la economía digital porque permite mejor que ninguna otra opción explorar nuevos modelos de negocios y otras formas de llegar al cliente.
Es decir, estamos en pleno cambio de mentalidad. Cada vez más empresas están entendiendo que cloud aporta un valor diferencial, al margen de sus ventajas en costes, pero aún sigue vigente en muchos sitios la antigua forma de pensar, relacionada con estos ahorros en TI, consecuencia del discurso de la industria cuando se (re)lanzó este concepto allá por los años 2006-2008. Debido a este enfoque “TI céntrico”, la adopción de cloud está actualmente más en manos de los responsables de Sistemas que de la alta Dirección, puesto que no se entiende que implica una transformación fundamental del negocio. Y los responsables de Sistemas son conservadores, evitan correr riesgos innecesarios y sólo dan el paso cuando los beneficios son muy evidentes respecto a una infraestructura propia.
Los casos de negocio están influenciados también por la continua reducción de costes que los fabricantes de equipos y software ofrecen a las empresas para que retengan estas infraestructuras (aunque sea montando su propia “cloud interna”), lo que ralentiza el proceso de cambio y adopción de utility computing.
Por eso, a la baja aceptación entre los responsables de TI contribuye el hecho de que el ahorro no compensa aún los riesgos inherentes a cualquier cambio de sistemas, (¿para qué probar algo nuevo si me va bien y la ganancia, que existe y es creciente, no es muy grande?), pero no porque piensen que la nube sea intrínsecamente insegura. Como explica Roberto García Esteban en este post, las empresas hacen un cierto tránsito antes de llegar a cloud.
Lo cierto es que la verdadera explosión de este modelo no se ha producido en las áreas de TI sino entre las áreas usuarias de sistemas de las empresas. Dropbox, OneDrive, Google App y muchas otras infraestructuras y aplicaciones en la nube son un ejemplo. Los usuarios, preocupados por la productividad de sus procesos, han adoptado estas herramientas cuando conseguían ahorros o mejoras importantes, que impactaban realmente en el negocio. Hasta tal punto, que las propias áreas de TI han comenzado a implementar herramientas para evitar el mal uso de aplicaciones e infraestructuras cloud y mitigar sus riesgos: es el caso de una nueva categoría de software de gestión que Gartner dio por llamar CASBs (Cloud Access Security Brokers).
El despegue definitivo del paradigma de cloud computing llegará, tal como lo anticipó McCarthy, pero probablemente de la mano de nuevas y revolucionarias aplicaciones, que requieran de una infraestructura en la nube para funcionar: big data, machine learning, social media, content delivery y otras… que generen un nuevo y espectacular salto en productividad.
Y creo que lo veremos pronto.
Imágenes: Public Domain, null0

Soluciones y Sectores
Te puede interesar
-
Kanto integra una nueva forma de pago en su Living App de Movistar Plus+
La Living App de Kanto es una de las experiencias digitales disponible en la sección "Apps" de Movistar Plus+. ...
-
"La transformación digital va de personas, no de algoritmos”
El “70 por ciento de los procesos de transformación digital fracasan” porque “el arte de transformar, inherente al ser ...
-
Futures Thinking: pensar futuros para transformar el presente
Aún recuerdo mi primera cámara fotográfica. Era una Kodak compacta, de bolsillo, que trajo mi tía de Alemania. Yo ...