jueves, 14 de febrero de 2019

Hiperconvergencia II


En el anterior artículo de esta serie, describimos cómo se hizo el cambio en la tecnología informática desde los anteriores equipos físicos en los centros de datos, que operaban de manera independiente y que consumían diversos recursos (administración, enfriamiento, energía) con un riesgo de fallas alto.
Un primer nivel de solución fue integrar la tecnología de virtualización con la cual en un mismo servidor físico se podían ejecutar varios equipos como si fueran reales, pero compartiendo de manera concurrente los recursos de hardware del sistema.

Apareció en un segundo momento la tecnología convergente en la cual inclusive los servidores físicos de virtualización se integraron en un solo gabinete, incrementando la densidad operacional del negocio y a esto se le llamó sistemas convergentes.

El ejemplo más claro de sistemas convergentes es el de la tecnología Blade, con la cual dentro de un gabinete se instalan servidores con muy alta densidad de integración (procesadores, memoria, comunicaciones) prácticamente como si fueran tarjetas electrónicas. Estos gabinetes tienen diversas interfases para los sistemas SAN de almacenamiento en discos con los cuales los servidores físicos adentro del gabinete tienen acceso al repositorio estructurado donde están los archivos, bases de datos, computadoras o servidores virtualizados.
Resultado de imagen para blade systems
Para muchas empresas la convergencia es un esquema funcional muy útil porque reducen los grupos de servidores que están dispersos. Siendo así, una organización puede ir desplazando todos los equipos que antes eran físicos hacia gabinetes de virtualización que contienen todo el ambiente técnico para que estos operen desde un solo punto de consolidación. Las compañías de medianas a muy grandes encontraron en los sistemas convergentes la solución para: optimizar consumos de energía, reducir los sistemas de enfriamiento, reducir los puntos de falla y los tiempos de caídas de los recursos o unificar las comunicaciones. Además, lograron consolidar el almacenamiento en grandes arreglos de discos (inicialmente mecánicos, pero con el paso de los años ahora son de estado sólido), administrar todos los recursos de manera simple, por medio de una sola consola de control.
Como puede verse, esta infraestructura es realmente una “nube” de sistemas y su administración sobre la cual pueden instalarse todos los recursos de información del negocio. De hecho, varias organizaciones tenían nubes híbridas basadas por una parte en sistemas locales y a la vez, con respaldo de almacenamiento o procesamiento en nubes de grandes proveedores como Amazon, Azure y otros.

El siguiente paso evolutivo más allá de los blades, mencionados lo representó la “Arquitectura Componible”, la cual también se basaba físicamente en sistemas integrados, pero que con la cual se pueden generar prácticamente al vuelo los servidores y equipos virtuales de usuarios, de todo tipo.
Imaginemos el caso donde fuera necesario crear un servidor para pruebas de una nueva tienda en línea: en lugar de adquirir un sistema físico, configurarlo, instalar el ambiente operativo y su software y luego ahí la aplicación final, con la arquitectura componible simplemente se accede al tablero de control, se crea el equipo virtual como cuando se crea un nuevo archivo, se definen sus parámetros técnicos y se presiona un botón para que este nuevo sistema se genere en unos pocos minutos. Con ello, en pocos minutos se tiene un equipo para trabajar de inmediato.

Independiente del modo operativo, los sistemas convergentes además tienen la ventaja de reducir las caídas de servicios, pues en el caso de que uno de los servidores físicos tuviese fallas, todos los equipos virtuales pueden ser movidos hacia otro que opere correctamente, con la mínima o nula interrupción de los recursos que ofrezcan a la empresa. Dado que el almacenamiento también está virtualizado, los servidores pueden localizar sus datos y archivos desde cualquier parte de la red sea en el mismo sitio o bien en una localidad remota.

La arquitectura componible virtualiza todo: procesadores, comunicaciones y almacenamiento. Cuenta además con software para respaldar o duplicar cualquier recurso virtual. ¿Qué podría salir mal? ¿Habrá un siguiente paso evolutivo que mejore estas capacidades o atienda algún elemento funcional todavía no considerado?

La respuesta es Sí. Se puede llevar a un siguiente nivel de potencia y flexibilidad a estos recursos, quizá al máximo nivel de velocidad, estabilidad y densidad componentes, al mismo tiempo de que se reducen en rangos de 10 a 1 los costos por almacenamiento, se optimizan las comunicaciones, capacidades de respaldo y protección. A este último salto en tecnología se le conoce como “Hiperconvergencia”.

domingo, 10 de febrero de 2019

El libro de la semana: Una columna de fuego

52
Una columna de fuego.
Ken Follet.


Este es un libro que gusta, no solo por la erudición histórica con la cual se va construyendo la trama de Ned y Margery dentro del devenir de una Europa en conflicto por los temas religiosos y la lucha por el poder. También por la complejidad de la trama que transcurre en múltiples referentes geográficos (Inglaterra, España y Francia, pero también Suiza, Bélgica o el Nuevo Mundo) y porque aparecen más de sesenta personajes que el autor aborda con un alto nivel de perfección.

Publicada en 2017, esta es la continuación de la saga que comenzó con “Los pilares de la tierra” (1989) seguida de “Un mundo sin fin” (2007) y que al igual que las antecesoras, tiene como ambiente principal a la ciudad ficticia de Kingsbridge donde su gran catedral y ahora las ruinas de edificios o sitios de otros tiempos (como el hospital de Caris, la escuela de gramática o las ruinas del Priorato) dan origen a los eventos principales. Los acontecimientos  se engarzan hasta abarcar otros países van generando un contexto rico que enlaza a las familias y personajes que articulan toda la historia. Follet brinda a sus seguidores que quedaron prendados por las dos primeras novelas, una estupenda continuación con el sesgo de una historia de ficción que gira hacia la realeza, los espías, la ambición y que tiene como fondo la lucha por diferencias religiosas del siglo XIV.

La narración comienza con el regreso de Ned Willard a Kingsbridge, para estar con su familia en Navidad de 1558 y para encontrarse con Margery Fitzgerald de quien ha estado enamorado prácticamente de toda la vida. Sin embargo, ellos viven en bandos opuestos, Ned y su familia están acostumbrados a trabajar duro para sacar adelante sus negocios y tienen una amplia tolerancia por la libertad de culto, mientras que los Fitzgerald representan a la clase opulenta de Kingsbridge y son fervientes católicos que se oponen a otras posturas críticas sobre la religión. Sir Reginald, padre de Margery es un hombre ambicioso que hace todo lo posible por vincularse con la aristocracia y posteriormente obliga a Margery a casarse con Bart de Shiring. Ned abandona Kingsbridge y la vida lo lleva a formar parte de una organización que se transforma en una especie de servicio secreto para la reina Isabel I, quien tuvo que defender su trono y visión protestante ante María Estuardo (reina de los escoceses) y sus partidarios, así como ante toda Europa que volvió en contra de Inglaterra.

Las familias que construyen este thriller están dispersas pero siguen vinculadas, principalmente en Calais, París, Sevilla, Londres y Kingsbridge. Van afrontando toda esta cruel época de lucha o matanzas como la noche de San Bernabé en París y las que sucedieron luego en otros lugares como Ginebra, Edimburgo, Angers o Burdeos. El argumento mezcla hábilmente el acontecer histórico con la vida de los personajes en este momento convulsionado de Europa. Para quienes han leído la otra trilogía (The Century) les será familiar la intrincada urdimbre de caracteres, situaciones, conexiones y países que entrelazan el continuo narrativo con el contexto histórico y personajes reales. Es quizá la novela de la saga que es más complicada de leer por la gran cantidad de individuos que aparecen.

Ned se casa Sylvie Palot, una joven protestante que tenía como plan de vida la difusión de la biblia y escritos religiosos en contra de las posturas ultracatólicas. Ned y ella se salvan durante la noche de la matanza, pero posteriormente Sylvie es asesinada por Rollo (hermano de Margery) durante una visita que hacen a Kingsbridge. Él se había vuelto espía y conspirador obrando en favor de María Estuardo, por lo que al verse descubierto la arroja a ella desde lo alto de la catedral y huye de regreso a Francia.

A lo largo de cincuenta años el amor de Ned y Margery continúa, hay una razón poderosa que los une, pero prefiero que leas el libro y la conozcas. Para quienes conocen las anteriores novelas, aparecen muchas alusiones a personajes como Tom Builder, el Prior Phillip, la misma Caris y a muchos lugares del entorno que ahora han cambiado o están completamente arruinados.

Por supuesto que el no haber leído las anteriores historias no impide abordar esta y disfrutarla.

@jcgutie

jueves, 7 de febrero de 2019

El libro de la semana: las cuatro disciplinas de la ejecución

12

Las 4 Disciplinas de la Ejecución.
Sean Covey, Chris McChesney, Jim Huling y José Gabriel Mirallles.


El libro de esta semana (realmente releido, para actualizar conceptos para una implementación de la metodología que vamos a desarrollar) es esta obra MUY recomendable para aquellas personas que tienen a su cargo algún nivel gerencial o que gestionan proyectos. Muy enfocado en el mejoramiento de procesos para la ejecución de la planeación estratégica.

Primero te comento una información de contexto.

Trabajé hace algunos años para una institución que si bien hacía Planeación Estratégica muy formal y todo, en sus áreas internas y departamentos no se volvía a tocar el tema sino hasta la evaluación del año, cuando ya no se podía hacer nada para modificar, corregir o ajustar las tácticas y procesos. Internamente en le área que yo coordinaba nos reuníamos cada dos semanas para valorar la planeación, ver avances y hacer ajustes, pero siempre me quedé con la inquietud por alguna metodología formal para este seguimiento.

En nuestro trabajo de consultoría en empresas, hemos encontrado que lamentablemente el caso relatado se repite y que aún más grave es el hecho de que el fracaso de la planeación reside en la falta de talento para ejecutarla.

Es decir, las empresas y gerentes saben QUÉ hay que hacer (los datos del medio, análisis FODA, reportes contables, etc. simplemente se usan para confirmar su conocimiento) pero fracasan en el CÓMO llevar a cabo las tareas, procesos, monitores y controles de los cursos de acción que hayan definido.

Prácticamente todas las maneras de articular la Planeación con la Operación, incentivar la Innovación permanente, etc., residen en lo mismo: el cambio de conducta de las personas y cómo desarrollan sistemáticamente lo planeado. En cuanto a herramientas, muchas provienen de diferentes campos y prácticamente son ‘refritos’ o ‘tropicalizaciones’ entre diferentes campos como TQM, Estadística, Procesos Esbeltos, Design Thinking, Mejora continua, etc., no hay nada nuevo bajo el sol y el éxito de cualquier estilo de creación, definición de estrategias e innovación se logra solamente con la transformación personal y colectiva de la cultura, en pocas palabras de la conducta, como te comento.

No hay que inventar el hilo negro.En este texto se brindan los 4 CÓMOS que permiten crear esta transformación y se presentan las herramientas necesarias para poder llevar a la práctica la planeación estratégica no solamente en empresas orientadas a resultados, sino a procesos, a gestión del conocimiento, innovación, servicios, manufactura, etc. Las 4 Disciplinas de la Ejecución (4DX) son:

1. Centrarse en lo crucialmente importante.
2. Actuar sobre las métricas de predicción.
3. Crear tableros de resultados.
4. Definir una cadencia en la rendición de cuentas.

Centrarse en lo crucialmente importante.

Definir las dos (máximo tres) metas más relevantes, en lugar de como proceden las organizaciones convencionalmente, haciendo un listado enorme de objetivos y metas que se diluyen -algunas hasta se contraponen o luchan por los mismos recursos- en lugar de enfocarse en lo más relevante. Por ejemplo las metas tienen que ver con añadir valor para los clientes, mejorar el rendimiento de las inversiones, los márgenes de utilidad, desarrollar las ventajas sostenibles, etc., estos caerían dentro de aquello que entendemos como importancia crucial.

Actuar sobre las métricas de predicción

Habitualmente para comprender el estado actual vemos informes históricos como los contables, reportes estadísticos del desempeño del período anterior, etc., es decir información sobre la que ya no puede hacerse nada. Las métricas de predicción tienen las características de que influyen en la creación de los objetivos estratégicos y que podemos actuar sobre ellas. Esto rompe esquemas y prácticas, pues nos concentra en el día a día sobre lo que sí se puede hacer para mejorar los resultados y medirlo, en lugar de actuar sin concierto y ver si lo que hicimos influyó o favoreció a los objetivos.

Crear tableros de resultados

Esta técnica es muy similar al Balanced Scorecard y pretende que la acción sobre las métricas de predicción de mida y concentre en estos reportes o tableros, con lo cual podemos ver si estamos cerca o no de la meta deseada a fin de elaborar las acciones correctivas ‘al vuelo’. Estos tableros se socializan y revisan prácticamente a diario por las personas de cada equipo de operación.

Definir una cadencia en la rendición de cuentas

Al contrario de lo comentado al principio, cuando jamás se vuelven a revisar avances de la planeación, la cuarta disciplina establece una evaluación constante, sistemática y planeada de los avances logrados. Esta revisión de hace en todos los niveles de administración y permite establecer los ajustes a que haya lugar en tácticas y procesos, con la intención de mejorar las métricas de predicción y encaminar los resultados hacia los niveles deseados.

Sin lugar a dudas es un libro altamente recomendable para quienes gestionan proyectos, dirigen empresas, áreas o departamentos, y hasta para la práctica personal. Es un texto que explica de forma clara y sencilla CÓMO hacer para volver real la Planeación y desarrollar los QUÉs ya conocidos, por cumplir.

miércoles, 6 de febrero de 2019

El libro de la semana: Cuentos sin plumas

11

Cuentos sin plumas.
Woody Allen.



Irreverente, genial, divertido, crítico, obsesivo, mordaz… Muchos adjetivos se pueden adjudicar a la genial creatividad de Woody Allen en este libro que reúne a tres de sus famosos libros de cuentos y relatos humorísticos: Cómo acabar de una vez por todas con la cultura, Sin plumas y Perfiles. Seguramente hemos leído por ahí más de alguno ya sea en línea, en una antología o en libros diversos como ejemplo del humor de este polifacético personaje.

Woody Allen (Brooklyn, 1935) es un prolífico autor, guionista, director de teatro y televisión, cineasta. Muchos lo conocemos sin duda por las innumerables películas que ha dirigido o en las que actúa con frecuencia. Sin lugar a dudas en varios relatos del libro escuchamos ecos de “Media noche en París”, “Hannie Hall” o “Historias de Nueva York” y las constantes temáticas que aborda el autor: la filosofía, las mujeres, el psicoanálisis, la religión y la muerte.

Precisamente uno de mis relatos favoritos es “Para acabar con Ingmar Bergman, El séptimo sello” un hilarante encuentro con la muerte donde el protagonista juega a las cartas para ganar unas horas más de vida. Disfruté mucho “El conde drácula”, así como conocidísimo relato “La amenaza ovni” o “Dios”, una de las más divertidas historias, plena de erudición y comicidad, al estilo del teatro griego.

Este es un texto más que recomendable, y como te dije genial e irreverente, para mirar desde otra perspectiva las temáticas de Allen que sin lugar a dudas coinciden con las que a muchos también nos obsesionan. Vale la pena ‘salir de las estructuras’ y contemplar muchos de nuestros dogmas con una mirada fresca y divertida, culta y vivaz.

martes, 5 de febrero de 2019

Hiperconvergencia I

Hiperconvergencia I



Desde hace casi una década hemos atestiguado profundas transformaciones en los recursos, la tecnología e infraestructura que soporta a los servicios de información de las empresas. El año 2010 marcó un hito importante en el mundo informático debido que en ese momento el número de equipos virtualizados excedió al de equipos físicos. Se habló entonces de un primer ‘salto’ en la manera de ejecutar aplicaciones o desplegar enormes bases de datos, instalando en un servidor físico de muy alta capacidad (digamos varios procesadores, con varios núcleos por procesador) a múltiples equipos virtualizados que operaban y se comportaban como si fueran reales, pero que en esencia compartían todos los recursos de hardware del sistema principal. De esta forma, se aprovechan todos los ciclos por segundo que tiene disponibles la máquina, así como las capacidades de ejecución de sus procesadores, para optimizar y compartirlos simultáneamente entre varios procesos servidores. De esta forma, en un solo dispositivo de hardware se pueden tener operando servidores que atendían a las bases de datos, comunicaciones, correo electrónico, portales web, servidores de archivos, impresión y muchos más.

Ese fue el primer paso hacia lo que entonces se denominó “Sistemas Convergentes” es decir, aquellos elementos que permitían la consolidación de muchos equipos físicos, virtualizándolos y ejecutándolos en uno solo. Cuando a estos servidores de consolidación se les integraron múltiples tarjetas de red de alta velocidad que podían ser compartidas, combinadas o segmentadas enlazando a todos los equipos con la red de la empresa, entonces además de virtualizar el procesamiento se hizo lo mismo con las comunicaciones. 

Una consecuencia directa de esta tecnología fue el desarrollo de los sistemas SDN (Software-defined networking), con los cuales se llegó más allá del centro de datos para abarcar a las comunicaciones generales del negocio. Los equipos que integran una red definida por software pueden se configurados desde un sistema central basado en software que los hace operar bajo diversas reglas (velocidades, grupos, segmentos) de una manera integrada. Más aún, algunos equipos son “multifuncionales” y el rol que desempeñan dentro de la red o la forma como trabajan sus interfases físicas o inalámbricas es modificable a través del software de administración. Se tiene además control de su firmware, condiciones de seguridad, etc.

Llegados a este punto, los sistemas convergentes permitieron colocar en un sistema físico a los procesadores y a las comunicaciones. Los equipos virtuales podían ser utilizados en la red y optimizar sus tiempos de respuesta o servicios que compartían, a través de canales flexibles, adaptables y totalmente gestionados desde una consola de software. Esto simplificó en varias unidades de magnitud el trabajo de administración que realizaban los gerentes de sistemas. Además, estas facilidades combinadas brindaron un avance en la madurez de las “nubes” en la red, es decir grandes servidores o centros de datos que otorgan bajo esquema de renta las capacidades de almacenamiento, procesamiento o comunicaciones. 

Para muchas empresas o instituciones apareció la oportunidad de ya no adquirir infraestructura física para sus servicios de información, sino que esta se podía rentar y usar en línea. Se podría pagar por uno o varios equipos de ciertas características o bien solamente por el consumo de recursos (como ciclos de procesadores, o espacio de almacenamiento).

domingo, 3 de febrero de 2019

El libro de la semana: Cerebro de pan


51

Cerebro de Pan.
Dr. David Perlmutter.



En el mismo tono de mejoramiento personal y de la calidad de vida de la obra que comentamos en la semana pasada, este libro ahora se enfoca en mejorar y cuidar la alimentación de una manera integral, es decir: de una manera más efectiva y menos dañina ante la avalancha de productos procesados, adicionados y empaquetados que tenemos en la modernidad. El autor es neurólogo y nutriólogo, sustenta sus recomendaciones en su larga experiencia dentro de la práctica médica, en referentes a investigaciones en que demuestran sus dichos (un extenso apartado al final de la obra) y en referencias a casos de pacientes que no identifica salvo por sus iniciales. Es un libro a nivel divulgación que debe ser considerado como tal y, en el caso de que se quiera llevar a la práctica sus recomendaciones estudiar el caso de cada persona por si estas le sirven.

El texto se lee como una obra interesante, aunque todos los estudios elegidos son solo aquellos que respaldan las teorías que explica el autor. No se presentan referentes en contra o que hagan matices a lo que escribe. Se elaboran afirmaciones cruciales sobre la alimentación de la humanidad y cómo esta se ha ido modificando, pero no se presenta un contraste efectivo entre los dichos y la comprobación. Por tanto, el hilo discursivo es parcial y los aportes que tiene definitivamente escapan al conocimiento del lector promedio.

De todas maneras, el cuidar lo que comemos y de controlar, por ejemplo, la ingesta excesiva de carbohidratos o de ayunar esporádicamente, pueden ser beneficiosas. Aun así, esto no exime de acudir a una consulta nutricia especializada. Lo mejor es contar con la asesoría de un profesional de la nutrición que valore a la persona y decida qué de lo recomendado en el texto es aplicable o no dependiendo del plan de vida que cada uno tenga y de sus condiciones orgánicas. Como en cualquier propuesta que trata de mejorar lo que hacemos y somos, conviene reflexionar para tomar decisiones “tanto cuanto” podamos aplicarlas positivamente.

El doctor Perlmutter presenta muchas ideas que cuestionan las prácticas y creencias habituales sobre alimentos como el trigo entero, los cereales, el multigrano y el colesterol. Además, analiza cómo los carbohidratos y las grasas poliinsaturadas de origen vegetal están relacionadas con el incremento en los casos de cardiopatías, obesidad y demencia, también asevera que la comida es un factor epigenético muy fuerte (esto según él, puede modificar nuestro ADN).

El libro comienza con una autoevaluación para analizar los hábitos de alimentación personales y también recomienda una serie de estudios de laboratorio si es que el lector se anima a poner en práctica el reto de 30 días transformando la modalidad alimenticia. En la primera parte se analizan los cereales y los efectos que tienen sobre el organismo -de acuerdo con el autor- en temas como la inflamación, el Alzheimer o la depresión. Elabora un detallado análisis sobre el gluten y señala que los efectos de esta proteína pueden ser dañinos hasta para quienes no son considerados celiacos o con diversos grados de intolerancia a la misma.

En la segunda parte se tratan todos los en las prácticas alimentarias, la medicina genética y la importancia del sueño. La tercera aborda los cambios que deben llevarse a cabo para adoptar un nuevo estilo de vida y es donde se presenta el plan de acción de cuatro semanas para -de acuerdo con las palabras del autor- preparar el camino hacia un cerebro saludable por medio de eliminar de la dieta los alimentos o bebidas considerados dañinos a fin de incorporar los que traen mejores efectos para el organismo. Al final de la obra el Dr. Perlmutter ofrece menús muy variados que están acordes con las ideas expuestas y que forman parte del reto de cambio para vivir mejor, según lo propone.

@jcgutie

jueves, 31 de enero de 2019

El libro de la semana: An introduction to Mathematical Modeling


10

An introduction to Mathematical Modeling.
Michael Alder.


Este es un texto en inglés posiblemente el menos accesible de los que hemos comentado en este entorno. Ya en sí el idioma supone un reto importante a afrontar, y por otra parte el tratamiento matemático de esta obra enfocada en brindar los fundamentos para el modelamiento matemático de fenómenos de la vida diaria o de los negocios, la reserva sólo para quienes tienen ciertas horas de vuelo y experiencia en el campo.

El libro está concebido como apoyo didáctico para nivel universitario, en cursos de pregrado que abordan las bases para crear modelos que representen fenómenos diversos como las inversiones en bancos, comportamiento de cultivos, reproducción de animales, grupos humanos, fenómenos de la física, etc. Aborda de manera sencilla el uso de ecuaciones de diferencias y ecuaciones diferenciales, uno en capítulo especial para cada grupo con ejemplos que se van desarrollando y ampliando conforme se introducen nuevas consideraciones según el fenómeno que se estudia. Al ser una obra de apoyo didáctico incluye preguntas de reto para los estudiantes, así como cuestionamientos que obligan a pensar un problema desde diferentes perspectivas.

Varias preguntas, y casos de ejemplo se dejan intencionalmente sin resolver, pero con las pistas suficientes para que el lector avance por sí mismo a la solución o reformulación si aplica, del problema dado.

Al cierre de la obra se ofrece una metodología general para crear modelos matemáticos que uno puede adaptar a las necesidades e inclusive mejorarla, así como varias fuentes de consulta específica donde se ilustran casos avanzados de varios pasos de dicha metodología.
Sea que uno esté modelando el comportamiento de procesos, el tráfico y estimaciones de redes, servicios financieros, casos de poblaciones, enfermedades, sistemas electorales y otros, este es un texto introductorio de buen nivel que ofrece en su bibliografía recursos más avanzados para quien desee profundizar.

  71 La Cuarta Revolución Industrial Klaus Schwab El término “Cuarta Revolución Industrial” fue expresado por Klaus Schwab en el Foro Econ...