5 puntos para aplicar la Revolución 4.0 a la empresa

La cuarta revolución industrial, marcada por la convergencia de tecnologías digitales -nanotecnologías, neurotecnologías, robots, inteligencia artificial, biotecnología, sistemas de almacenamiento de energía, drones e impresoras 3D, entre otras- abre la posibilidad de que miles de millones de personas estén conectadas por distintos dispositivos amigables, con poder de procesamiento, capacidad de almacenamiento y acceso al conocimiento sin precedentes: tablets, teléfonos móviles, de servicio de voz para el hogar o coches, electrodomésticos o máquinas inteligentes.

Aprovechar las bondades de la tecnología en el diseño de procesos, y su implementación dentro de la empresa genera un cambio estructural que a su vez abre un abanico de posibilidades para relacionarse con los otros, transformar los modelos de negocio y las cadenas de suministro.

Miguel Estrada, profesor de Dirección de Operaciones en Ipade Business School, menciona que a partir de la conectividad y las nuevas tecnologías es posible el desarrollo de nuevas relaciones colaboradores-cliente-proveedor, generando un nuevo ecosistema en el entorno de negocio. Lo importante, señala, es ser capaz de responder la pregunta esencial: ¿Para qué se aplicará la Revolución 4.0 en mi empresa?

“La tecnología permite, entre otras cosas, controlar continuamente el rendimiento, recopilar y analizar datos de múltiples sistemas, lo que aplicado en la operación revolucionará el entorno de negocio. Esto nos lleva a nuevas relaciones colaboradores-cliente-proveedor, a nuevas convergencias, es decir, ya no es el display sino cómo utilizas la gran conectividad, la analítica y representa pasar de las relaciones cliente-proveedor de una cadena de suministro clásica a relaciones de ecosistema”, explicó Miguel Estrada.

El académico destaca el papel que juega la conectividad en la Revolución 4.0. “Estamos viviendo un cambio estructural. Automatización ya había desde hace algún tiempo atrás y sigue evolucionando. La impresión 3D ya existía y también ha seguido desarrollándose, pero no existía la tecnología de conectividad y almacenamiento de información que tenemos ahora y permite usarlas como un sistema. La convergencia de estas tecnologías, por ejemplo, el potencial al usarse de manera combinada, permitiendo nuevos modelos de operación, de servicio y de negocio” señaló.

Ante este escenario, Estrada propone 5 puntos que parten de la Dirección de Operaciones para lograr este cambio estructural y utilizar la tecnología 4.0 en la empresa en beneficio del entorno de negocios:

  • –        Conceptualización con usuarios extremos: Parte de la búsqueda de nuevos conceptos de servicio o negocio con ideas extremas, es decir innovadoras o disruptivas, fuera del especialista tradicional. Resulta que las ideas extremas son de mucho más calidad que las del especialista, dado que el especialista tiende a converger en la misma línea de ideas que ya ha propuesto con anterioridad. Es necesario buscar personas que den ideas disruptivas para poder explorar conceptos de negocio con puntos de vista nuevos que nos lleven a modelos de operación que brinden servicios o bienes diferenciados de la competencia.
  • –        Exploración: Normalmente lo que hacemos es enfocarnos al cliente típico. Lo que se recomienda es ir con el cliente que no tienes y quisieras tener. “Por ejemplo, muchos de los negocios no son para millennials porque son personas que están empezando a trabajar. La cuestión es que van a llegar y cuando lleguen, se debe estar preparado. Es necesario explorar su nuevo ecosistema, cómo será en el futuro, con la tecnología y servicios que solicitarán”.
  • –        Cocreación: Ayúdate del cliente. Tu usuario o cliente te puede enseñar a diseñar un producto o proceso distinto al que tienes y que le será más atractivo.
  • –        Cambio de relación con los competidores: Utiliza a tus rivales como aliados, por ejemplo, con la creación de un clúster colaborativo. Es decir, colaborar en lo que no compites pero desarrolla al ecosistema de negocios, competir creando valor para todos desarrollando el conocimiento o valor colectivo. “No es competencia o colaboración, es las dos cosas de manera sinérgica, es “coopetencia”.
  • –        Diseño humanizado: La pregunta no es cómo aplicar la revolución 4.0, sino para qué, y la respuesta debe estar alineada con el objetivo de crear un ecosistema en el que la conectividad es clave y los nuevos servicios se desarrollan centrados en la persona, en todas sus dimensiones.

Strendus anuncia su lanzamiento en todas las plataformas digitales

Strendus tomó el paso para poder llevar la emoción del entretenimiento en línea a la palma de las manos de todos los usuarios. Con más de 400 juegos para cualquier amante de los juegos de azar y sorteo, el catálogo se divide en 3 grandes subverticales: Slots, Video Bingo y Sports. Aquí podrás disfrutar de juegos clásicos de cartas como Baccarat, Blackjack y Casino Poker; juegos de mesa como ruleta y dados; y juegos varios como Keno (variante del Bingo) y Ruleta de la suerte. Además de participar en actividades de entretenimiento que engloban una gran gama de deportes, ligas y competiciones no solamente del rubro atlético.

Adicionalmente, Strendus es cliente de los proveedores de juegos electrónicos y plataformas de entretenimiento más renombrados y galardonados en el circuito internacional como BtoBet, Microgaming, Ainsworth y Play’NGo, mismos que ofrecen las mejores soluciones y recursos en gaming electrónico.

Strendus es una de las páginas más completas pensadas para llevar la emoción al público mexicano, además de ser de las únicas en contar con regulación totalmente vigente. La plataforma está diseñada de manera en la que el cliente pueda sacar el mayor provecho de sus conocimientos en apuestas online y encuentre adrenalina en sus apuestas favoritas en cuestión de unos cuantos clicks. Strendus otorga un servicio personalizado, contenido de valor único y propio para cualquier usuario que esté interesado en él.

A la par de crear experiencias únicas, Strendus apoya un consumo responsable y promueve un entorno de juego sano. La plataforma cuenta con herramientas de límite de apuestas y/o montos, además de la posibilidad de autoexclusión permanente.

Comienza a vivir la adrenalina del entretenimiento en línea en una de las plataformas más importantes del país. Descarga ya Strendus en  sistemas IOS o Android completamente gratis, o visita la página de Strendus.

¿Vacas inteligentes? O sobre el diseño de productos del IoT que no fallen

Por Cheryl Ajluni, líder de Soluciones del Internet de las Cosas, Keysight Technologies

Nadie busca diseñar un producto del Internet de las Cosas (IoT) que vaya a fracasar, pero sucede. Abundan las historias sobre los dispositivos que fracasaron, desde cerraduras inteligentes fáciles de hackear hasta los 440,000 detectores de humo y monóxido de carbono que tuvieron que retirar del mercado por fallas de fabricación.

Cuando el problema se presenta solo en un producto y esto se puede resolver reemplazándolo, el impacto en la marca y en la rentabilidad de la empresa es mínimo. Pero cuando se trata de productos del IoT que están instalados en lugares de difícil acceso o en entornos complejos, el asunto ya se torna más difícil de manejar. Y en estos casos, es posible que el éxito o fracaso de una empresa dependa del funcionamiento de esos artefactos.

Hoy en día, este escenario es una realidad, ya que el IoT crece cada día más y los dispositivos relacionados comienzan a formar parte de más y más aplicaciones en lugares de difícil acceso. La agricultura inteligente presenta un ejemplo perfecto: se están utilizando sensores del IoT para distintas aplicaciones con el fin de hacer que la producción sea más productiva y sostenible. Por ejemplo, se usan para monitorear los niveles de humedad en la tierra, para desmalezar la cosecha, para ayudar a los pollitos a salir del huevo e incluso para controlar la salud de las vacas destinadas para el consumo humano.

Cuando se utilizan para crear “vacas inteligentes”, los sensores del IoT se implantan en distintos lugares debajo de la piel de los animales. El proceso requiere una cirugía menor con anestesia. Una vez que están operativos, se espera que los sensores funcionen adecuadamente durante por lo menos tres años. Durante ese período, se monitorean distintos factores, como el comportamiento e incluso la temperatura corporal de las vacas, lo que puede alertar sobre posibles enfermedades.

Suena muy simple, pero dado que los sensores se encuentran dentro de la vaca, no es tan fácil acceder a ellos si fallan. Además, el peso de estos animales y su hábito de frotarse continuamente contra varios objetos plantean un problema adicional. ¿Qué sucede cuando una vaca adulta, que pesa más de 800 kg, decide frotar contra algo justo la parte donde se encuentra ubicado el sensor? ¿Se dañaría?

Estas preguntas son válidas y señalan un diferenciador clave entre los dispositivos del IoT que funcionan y aquellos que no. Los productos del IoT que funcionan correctamente se diseñan intencionalmente para no fallar, no solo en el laboratorio bajo condiciones ideales de ensayo, sino también en el mundo real, donde distintos factores conspiran contra ellos.

A continuación, presentamos cinco factores clave que podrían afectar el funcionamiento de los dispositivos del IoT en el mundo real y algunos consejos sobre cómo superar los desafíos relacionados:

Problemas de carga y congestión

Desde el momento en que se enciende un nuevo dispositivo del IoT, existen cientos de otros dispositivos similares a su alrededor. En una sola granja inteligente, podría haber un rebaño donde cada animal tiene implantados varios sensores; sensores para medir las variables en la tierra, las plantas y el ambiente; sensores para monitorear remotamente a los animales; robots que realicen tareas agrícolas y drones, sin mencionar los aparatos del IoT que use el propio granjero. La congestión podría afectar el funcionamiento normal de los dispositivos. Un incremento drástico en el tráfico de la red tiene un efecto similar, lo que obliga a que los dispositivos deban retransmitir datos continuamente. Como consecuencia, es posible que se agote más rápido la batería o que falle.

Para evitar esto, los fabricantes deben probar la capacidad de sus dispositivos de funcionar normalmente con una carga de tráfico similar a la que se espera en el entorno de aplicación objetivo. Esas pruebas también deben realizarse simulando distintos tipos de tráfico, como transmisión de video o voz.

Interferencia

Al utilizar muchos dispositivos del IoT bajo una misma banda abarrotada, como podría suceder en una granja grande, se incrementa significativamente la probabilidad de que haya interferencia entre los artefactos. Muchos de estos dispositivos no pueden detectarse entre sí —y mucho menos compartir las ondas de radio— y eso hace que algunos se comporten de formas inesperadas.

Para evitar estos problemas, es esencial realizar pruebas de coexistencia. Esto puede ayudar a los fabricantes a determinar la tolerancia que tiene un dispositivo con respecto a otras señales de radio y garantizar que haya un determinado nivel de funcionamiento a pesar de operar en la presencia de otros protocolos de radio. También habría que probar que los dispositivos del IoT puedan soportar distintas amplitudes, rangos de datos y protocolos con los que probablemente se encuentren en el mundo real.

Dificultades de itinerancia

Por lo general, los dispositivos inalámbricos del IoT se mueven de un lado a otro. Eso puede ser un problema si no están diseñados con algoritmos sólidos que les permitan minimizar el retraso y evitar los cortes, ya que un corte de algunos segundos podría ocasionar la pérdida de información muy valiosa. La congestión e interferencia tienen un gran impacto en el funcionamiento de los algoritmos de itinerancia, lo que hace que sea esencial probar los dispositivos bajo condiciones de red reales para evitar que fallen. Incluso en el ejemplo de la granja inteligente, implantar un dispositivo del IoT en una vaca solo tiene sentido si el granjero puede acceder a la información de ese sensor.

Una de las formas de evitar este problema es probar el comportamiento de transferencia de itinerancia en los dispositivos del IoT en condiciones complejas. Se recomienda simular la antena del dispositivo para garantizar que pueda soportar la itinerancia y, al mismo tiempo, operar a pesar del volumen y la combinación de tráfico que se encuentra en el mundo real.

Interoperabilidad con la infraestructura de red

Puede ser que, un día, un dispositivo del IoT funcione bien y que, al siguiente, empiece a actuar erráticamente o deje de funcionar por completo. Es probable que el problema no surja del dispositivo en sí sino del usuario, que actualizó el firmware en los puntos de accesos (AP) inalámbricos. Un pequeño cambio en la infraestructura de la red puede hacer que un dispositivo del IoT que funciona perfectamente, como un sensor implantado en una vaca, ya no sea reconocido por el ambiente objetivo. Afortunadamente, aplicar un conjunto de pruebas que evalúen el cumplimiento con el protocolo de red puede ser una defensa eficaz contra este tipo de falla, siempre que incluya todas las funciones definidas del protocolo inalámbrico de un dispositivo y no solo un pequeño subconjunto.

Violaciones de seguridad

Todos los dispositivos del IoT son vulnerables a ataques, incluso si están implantados en una vaca. A veces, los hackers buscan la información que recopilan los dispositivos. Otras veces, les interesa encontrar una forma de explotar la seguridad débil de un dispositivo para ingresar furtivamente a una red. Eso es lo que puede suceder cuando hay un dispositivo itinerante y se producen interferencias. 

Esa interferencia puede dominar al dispositivo y generar fallas, lo que a su vez podría ocasionar grandes retrasos en la conexión y una mayor vulnerabilidad temporal a ataques. Una de las formas de evitar este escenario es probar los dispositivos con un conjunto de pruebas que tengan la capacidad de simular el comportamiento itinerante en un ambiente abarrotado de radiofrecuencias.

A medida que más consumidores comienzan a confiar en el poder del IoT, también aumenta la presión sobre los fabricantes para que garanticen productos de confianza. Para aquellas empresas que buscan diseñar productos del IoT infalibles, la clave está en entender a la perfección el entorno de aplicación del artefacto y en realizar las pruebas adecuadas para asegurar que puede funcionar a pesar de los factores que podrían afectan su desempeño. Más allá de cuál sea la aplicación de estos dispositivos —desde vacas inteligentes hasta dispositivos de monitoreo médico—, las empresas que buscan priorizar la fiabilidad sin duda aprovecharán las oportunidades cada vez mayores que ofrece el mercado del IoT.

Intel, próxima a considerar mercados millonarios en inteligencia artificial

Por Navin Shenoy, vicepresidente ejecutivo y gerente general del Grupo de Centros de Datos en Intel Corporation.

Durante la conferencia Data-Centric Innovation Summit de Intel, compartí nuestra estrategia para el futuro de la computación basada en datos, así como una visión expansiva del mercado potencial (TAM, por sus siglas en inglés), y detalles nuevos acerca de nuestro plan de desarrollo de productos. El aspecto central de nuestra estrategia es un profundo conocimiento tanto de los retos, como de las oportunidades más grandes que enfrentan nuestros clientes en la actualidad.

Como parte de mi función en la dirección de los negocios basados en datos de Intel, me reúno con los clientes y socios de todo el mundo. Aun cuando provienen de muchas industrias diferentes y enfrentan desafíos empresariales únicos, todos tienen algo en común: la necesidad de obtener más valor de las enormes cantidades de datos. 

Me parece asombroso que 90% de los datos del mundo hayan sido generados en los dos últimos años. Además, los analistas pronostican que para 2025 los datos crecerán exponencialmente 10 veces más y llegarán a los 163 zettabytes. Pero aún tenemos un largo camino que recorrer para aprovechar totalmente el poder de estos datos. Se puede decir que solo el uno por ciento se utiliza, procesa y se les da seguimiento. ¡Imaginen lo que podría pasar si pudiéramos provechar efectivamente más de estos datos a escala!

La intersección de datos y transporte es un ejemplo perfecto de lo anterior en acción. El potencial de supervivencia de la conducción autónoma es muy grande – muchas vidas podrían salvarse alrededor del mundo como resultado de un menor número de accidentes. Sin embargo, para lograrlo, se necesita una combinación de tecnologías que trabajen en conjunto – incluyendo todo: la visión por computadora, la computación en el borde, el mapeo, la nube y la inteligencia artificial (IA).

Lo anterior requiere, a su vez, un cambio importante en la manera en que nosotros como industria, vemos la computación y la tecnología basada en datos. Necesitamos considerar los datos de manera global, incluyendo cómo los movemos con mayor rapidez, cómo almacenamos una mayor cantidad y cómo procesamos todo desde la nube hasta el borde.

Implicaciones para la infraestructura

Este enfoque de extremo a extremo es un aspecto fundamental para la estrategia de Intel, y cuando lo vemos desde esta perspectiva – ayudando a los clientes a mover, almacenar y procesar datos – la oportunidad del mercado es enorme. De hecho, revisamos nuestra visión expansiva del mercado potencial de $160 mil millones de dólares en 2021 a $200 mil millones en 2022 para nuestros negocios basados en datos. Esta es la mayor oportunidad en la historia de la compañía.

Como parte de mi discurso inaugural en la conferencia, describí las inversiones que estamos haciendo a lo largo de una amplia cartera para maximizar esta oportunidad.

Muévete con mayor rapidez

La explosión de datos conlleva la necesidad de mover los datos a mayor velocidad, sobre todo dentro de los centros de datos de hiperescala. La conectividad y la red se han convertido en cuellos de botella para utilizar con mayor efectividad y liberar la informática de alto desempeño. Las innovaciones como la  fotónica de silicio de Intel, están diseñadas para eliminar esas barreras, utilizando nuestro talento único de integrar el láser en el silicio y, finalmente, brindar el costo más bajo y energía por bit y el más alto ancho de banda.

Asimismo, mi colega Alexis Bjorlin anunció que seguimos expandiendo nuestra cartera de conectividad con una nueva e innovadora línea de productos SmartNIC – cuyo nombre de código es Cascade Glacier, que se basa en las FPGA Intel® Arria® 10 y permite la optimización del desempeño de los sistemas basados en el procesador Intel Xeon. Los clientes ya la están probando y Cascade Glacier estará a la venta en el primer trimestre de 2019.

Almacena más

Para muchas aplicaciones que se ejecutan actualmente en los centros de datos, no sólo se trata de mover datos, sino también de almacenar datos de la forma más económica. Con ese propósito, nos hemos dado a la tarea de transformar por completo la jerarquía de memoria y de almacenamiento en el centro de datos.

Recientemente dimos a conocer más detalles acerca de la  memoria persistente Intel Optane DC, una clase totalmente nueva de innovación en memoria y en almacenamiento, que permite un gran nivel de memoria persistente entre  la DRAM y los SSD, sin dejar de ser rápida y asequible. Y ahora, compartimos una nueva métrica de desempeño que muestra que los sistemas basados en la memoria persistente Intel Optane DC pueden alcanzar un desempeño hasta 8 veces mejor en ciertas consultas analíticas que configuraciones que sólo se basan en la memoria DRAM.

Clientes como Google, CERN, Huawei, SAP y Tencent ya la consideran revolucionaria. Y hoy, empezamos a enviar las primeras unidades de la memoria persistente Optane DC. Yo personalmente le entregué la primera unidad a Bart Sano, vicepresidente de Plataformas de Google. Se espera que esté disponible en general para 2019, con la próxima generación de procesadores Intel Xeon.

Además, en la conferencia Flash Memory Summit, anunciamos los nuevos productos basados en  Intel® QLC 3D NAND, y demostramos la forma en que compañías como Tencent utilizan esta tecnología para liberar el valor de sus datos. 

Procesa todo

Mucho ha cambiado desde que introdujimos el primer procesador Intel Xeon hace 20 años, pero el apetito por el desempeño informático es más grande que nunca. Desde el lanzamiento de la plataforma Intel Xeon Scalable en julio pasado, hemos visto que la demanda sigue creciendo, y tengo el placer de decir que ya enviamos más de 2 millones de unidades en el segundo trimestre de 2018. Mejor aún, en las primeras dos semanas del tercer trimestre, enviamos 1 millón de unidades más.

Nuestras inversiones en la optimización de los procesadores Intel Xeon y las FPGA Intel para la inteligencia artificial también están dando resultados. En 2017, más de 1 mil millones de dólares en ingresos provinieron de clientes que ejecutaban inteligencia artificial en procesadores Intel Xeon en el centro de datos. Y continuamos mejorando el adiestramiento de la inteligencia artificial y el desempeño de la inferencia. En total, desde 2014, nuestro desempeño mejoró en más de 200 veces.

Lo que viene es igualmente emocionante para mí. Hoy dimos a conocer el plan de desarrollo de la próxima generación para la plataforma Intel Xeon:

·         Cascade Lake es un procesador Intel Xeon Scalable futuro, basado en tecnología de 14 nm que introducirá la memoria persistente Intel Optane DC y un conjunto de nuevas funciones de inteligencia artificial llamado Intel DL Boost. Este acelerador de IA integrado aumentará la velocidad de las cargas de trabajo de inferencia de aprendizaje profundo, con una velocidad esperada de reconocimiento de imágenes 11 veces mayor a la de los procesadores de la generación actual Intel Xeon Scalable cuando los lanzaron en julio de 2017. Los envíos de Cascade Lake están planeados para más adelante este año. 

·         Cooper Lake es un procesador Intel Xeon Scalable futuro que se basa en la tecnología de 14 nm. Cooper Lake introducirá una plataforma de nueva generación con importantes mejoras en el desempeño, nuevas funciones de entrada/salida, nuevas capacidades Intel® DL Boost (Bfloat16) que mejoran el desempeño del adiestramiento de la IA/aprendizaje profundo, e innovaciones adicionales de memoria persistente Intel Optane DC. Se espera hacer envíos de Cooper Lake en 2019.

·         Ice Lake es un procesador Intel Xeon Scalable futuro basado en tecnología de 10 nm, que comparte una plataforma común con Cooper Lake, y se planea como una pronta continuación que estará disponible para 2020.

Además de invertir en las tecnologías correctas, también estamos ofreciendo soluciones optimizadas –del hardware al software– para ayudar a que los clientes estén a la delantera de sus crecientes demandas de infraestructura. Por ejemplo, introdujimos tres nuevas soluciones Intel Select Solutions centradas en la IA, la cadena de bloques y  SAP Hana*, que se avocan a simplificar el desarrollo y acelerar la generación de valor para nuestros socios del ecosistema y clientes.

La oportunidad que nos espera

En resumen, entramos en una nueva era de computación basada en datos. La proliferación de la nube más allá de la hiperescala y en la red y en el extremo, la inminente transición a la tecnología 5G, y el crecimiento de la inteligencia artificial y la analítica, han producido un cambio profundo en el mercado, creando enormes cantidades de datos en su mayoría sin aprovechar.

Y cuando se le agrega el crecimiento en el poder de procesamiento, las innovaciones en conectividad, almacenamiento, memoria y algoritmos, terminamos con una forma completamente nueva de pensar sobre la infraestructura. Estoy emocionado por la enorme y rápida oportunidad basada en datos que nos espera ($200 mil millones de dólares para 2022).

Para ayudar a que nuestros clientes muevan, almacenen y procesen cantidades de datos gigantescas, tenemos planes de acción para ganar en las áreas de mayor crecimiento y tenemos una cartera sin igual para impulsar nuestro crecimiento –incluyendo productos líderes en desempeño y un amplio ecosistema que cubre todo el mercado basado en datos.

Cuando la gente me pregunta qué me gusta de trabajar en Intel, la respuesta es simple. Estamos inventando – y escalando– las tecnologías y soluciones que marcarán el inicio de una nueva era de la computación y ayudarán a resolver algunos de los mayores problemas de la sociedad. 

BMC hace recomendaciones para navegar el mundo multi-cloud

De acuerdo con resultados de una encuesta de Gartner, los ingresos por servicios en la nube llegarían a 305.8 billones de dólares en 2018, lo cual representa un aumento de 17.5% contra 2017, y a medida que más empresas migran a procesos más digitalizados, sumado a la presión que los líderes actuales de TI sienten para tener un ambiente de nube acorde a sus necesidades, se confirma que los servicios en la nube se han vuelto más importantes.

 “Frente a este contexto, los líderes de TI requieren enfrentar nuevos retos acerca de seguridad, visibilidad, costo, desempeño, automatización y migración. Pero, ¿cómo pueden enfrentarse a estos retos si muchos tomadores de decisiones de TI no tienen las herramientas para obtener un panorama completo del ambiente multi-cloud o no saben lo que su empresa está gastando actualmente en la nube?”, indicó Ricardo Wolff, country director de BMC México.

 Tenga controlada la situación – mapeo de aplicaciones

De acuerdo con observaciones del ejecutivo de BMC, el mapeo de aplicaciones es una forma de proveer una visibilidad robusta sobre la parte de la infraestructura de TI que soporta a servicios particulares del negocio, como los distintos componentes de su ambiente multi-cloud. “En ese sentido, un mapa de aplicaciones hace posible monitorear y documentar los servicios del negocio. Más aún, permite al área de TI evaluar el impacto de cambios potenciales, configuraciones y verificar otras funciones para asegurar un óptimo soporte al negocio”, explica Wolff.

 Para BMC, las herramientas de mapeo de aplicaciones de descubrimiento automático pueden recolectar datos en infraestructura de red y servicios de nube y sus relaciones, para crear mapas de aplicaciones escalonados y robustos. “Por eso es que estableciendo relaciones entre los propietarios de las aplicaciones y gerentes de configuración, y extendiéndose a lo largo de servicios de nube, los mapas de aplicaciones realmente pueden avanzar el alineamiento TI-negocio y ayudan a mantener el ambiente de nube responsivo a las demandas del negocio”.

De ahí que cuando se trata de mapear un ambiente multi-cloud, Wolff recomienda empezar con una estrategia de “comienza en cualquier parte” (start anywhere) para permitir a los propietarios de las aplicaciones recibir una mejor experiencia al permitirles iniciar con lo que ya conocen, en vez de hacerlos descubrir qué constituye la “cima”. El mapeo “start anywhere” puede comenzar también desde múltiples puntos simultáneos, lo que significa que los equipos de TI pueden hacer frente a las aplicaciones mucho mejor, o cuando las distintas partes de una relación están perdidas y pueden mitigar la gestión de los retos que las herramientas estándar enfrentan en las complejas infraestructuras centradas en la nube.

La complejidad

Por otro lado, Ricardo Wolff señaló que una reciente encuesta de BMC encontró que 40% de los tomadores de decisiones de TI globales no saben cuánto gasta su empresa en servicios de nube. A esto se une el hecho de que el 78% de los tomadores de decisiones de TI están buscando maneras de integrar soluciones emergentes, como la inteligencia artificial en sus estrategias multi-cloud, y esto destaca una tendencia preocupante. ¿Cómo pueden las nuevas tecnologías ser implementadas en ambientes de nube si no hay visibilidad aparente de gastos y recursos?

 “Multi-cloud ha cambiado realmente el juego, por lo que la manera tradicional de ver la infraestructura de TI ya no funciona. Los líderes de TI deben considerar nuevas formas de gestionar ambientes multi-cloud para asegurar que están recibiendo los beneficios esperados de nubes públicas en términos de ahorros, optimización de desempeño automático e incremento de seguridad y gobernanza. Deben adaptar también su estrategia de gestión usando nuevas soluciones tecnológicas hecha para multi-cloud que aprovechen el ‘machine learning’ y la inteligencia artificial para reducir la complejidad”, explicó el directivo.

 Asegurando agilidad, cumplimiento, innovación y control de costos

El 44% de los tomadores de decisiones en la encuesta BMC-Gartner están de acuerdo en que adoptar multi-cloud es esencial para mantener la agilidad. “Esto se relaciona con evitar el bloqueo del proveedor, que es esencial para cualquier organización competitiva que quiera tener una presencia robusta en nubes alrededor del mundo”, dijo Wolff, quien agregó que el elemento de bloqueo se convertirá en un problema mayor para las organizaciones. “Por ejemplo, todo está muy bien si se tiene un acuerdo global con Amazon Web Services (AWS), pero cuando va a Brasil, ¿sería más fácil tal vez trabajar con un proveedor de nube brasileño competitivo que además garantice que los datos estén almacenados y gestionados bajo las leyes españolas? Las soluciones multi-cloud que no sean muy astringentes ayudarán a facilitar esta estrategia a los negocios globales”.

 “Comprendiendo los costos a lo largo de cualquier modelo de nube pública, privada o híbrida, es un elemento crítico para mantener la agilidad e incrementar la visión del negocio. Por eso es que la infraestructura multi-cloud más efectiva será aquella que combine una solución de gestión de costos que analice los costos actuales y futuros. La visión y el control sobre el capital y los gastos de operación pueden y deben ser racionalizados. Con una sola vista de los gastos en infraestructura propia y de nube pública, las organizaciones pueden analizar y rastrear costos y utilización, mientras identifican áreas con sobregastos y anticipan costos futuros”, agregó el principal directivo de BMC en México.

 Conclusión

En resumen, BMC enumero consejos rápidos para estar preparados para abordar con éxito  estrategias de ambientes multi-cloud:

  • Obtenga una mejor visibilidad de los activos para contar con la imagen completa de los servicios multi-cloud.
  • Eficientice las estrategias de gestión: simplificar y automatizar tanto como sea posible.
  • La inteligencia artificial y el aprendizaje de máquinas pueden quitar la repetición actividades de la gestión multi-cloud.
  • Tenga una imagen clara de los costos de nube: considere que puede no ser sensato ejecutar todo en la nube.
  • Adopte una postura proactiva para ofrecer una más amplia superficie de ataque y asegure el cumplimiento de los ambientes multi-cloud.

 “Siguiendo claros estos pasos, los ambientes multi-nube pueden ser administrados con cuidado para soportar el óptimo desempeño del negocio. El primer paso es tener claro con qué está tratando y dar los siguientes necesarios para simplificar todo lo que se pueda. Esperamos ver que muchos tomadores de decisiones de TI cuenten con un mejor control de sus ambientes multi-cloud lo que resta del año”, finalizó Wolff.

Protección Dell EMC: La solución de mejor costo de propiedad para PyME

Y en estos días inciertos, un poco se seguridad no cae nada mal. Como la idea es que sean las PyME las que más refuercen su camino de crecimiento, una plataforma que les ayude a mantener su información y procesos a resguardo es siempre bienvenida, y si logran al mismo tiempo contar con la posibilidad de administrar, para la mejor toma de decisiones, el valor agregado es indudable.

Durante la presentación de la nueva solución Dell EMC Integrated Data Protection Appliance (IDPA) DP4400 diseñada para las medianas empresas, Carlos Patiño, director senior de la división de Latinoamérica de Soluciones de Protección de Datos de Dell EMC señaló que “la evolución de los acercamientos a la seguridad de la información hace ver que es fundamental una infraestructura moderna para generar nuevas aplicaciones, mejoras, actualizaciones y así asegurar la operación de la empresa y la información que necesita para generar negocio”.

Por su parte, Alfredo Taborga, DPS gerente de Ventas para México, Nola y región Andina de Dell EMC, compartió que “hay ejemplos muy claros de la transformación digital y no sólo en el sector financiero y de retail, las áreas de tecnología ya no son solamente un proveedor en sus empresas, ahora pueden llegar a ser el negocio mismo. Se ha visto mucho más en relevante la labor de los especialistas en tecnología. Así, hablamos de un datacenter en el que no se comprometa la integridad del performance ni de la data que contiene”.

“IDPA DP4400 es un dispositivo de protección de datos convergente en una plataforma densa de 2U que cuenta con la tecnología de los servidores PowerEdge de la 14va generación. La integración con las herramientas nativas de VMware, SQL Server Management Studio y Oracle RMAN permite a los administradores de aplicaciones aprovechar las funciones de protección dentro de interfaces de usuario familiares”.

Para Carlos Patiño, lo que ha sido más importante es proveer “una analítica que promueva un círculo virtuoso de innovación a través de la medición de la efectividad de áreas de mejora. Los datos son el componente fundamental de la transformación digital en las empresas, y es importante balancear las señales de la obsolescencia contra el poder del rendimiento y la eficiencia. El dispositivo elimina la necesidad de gateway en la nube, ya que hablamos de una API extensible para una administración simplificada: Pequeña y robusta plataforma que reduce el requisito de ancho de banda hasta en 98%. Escalabilidad simple y elegante”.

Justo para las empresas medianas, cuyas inversiones deben ser realizadas estratégicamente este dispositivo ofrece un valor y un costo total de propiedad excelentes (con un costo de protección de hasta 80% menos). Con ventanas de respaldo hasta dos veces más rápidas, hasta 20% más de capacidad en un dispositivo de 2U  y un promedio de tasa de deduplicación de 55:1: El menor costo de protección en comparación con los productos de su clase.

“Durante años, las medianas empresas no tuvieron a su alcance una solución integral de protección de datos con el tamaño y el precio adecuados para ellas”, finalizó Patiño. “Con IDPA DP4400 no tienen que dejar nada de lado. Estamos ofreciendo una solución de protección de datos convergente que es fácil de usar, pero muy poderosa, y además soporta los ecosistemas de aplicaciones más grandes y la expansión en la nube”.

Grupo Globalia y Paessler apuntalan monitoreo de red en sector turístico

Para la correcta operación, gestión de eventos, capacidad y despliegue de nuevos proyectos en todas las empresas del Grupo Globalia (un grupo turístico español con una facturación anual de más de 3,500 millones de euros y una plantilla superior a los 15 mil trabajadores), era necesario conocer el consumo actual y futuro de recursos de TI, por lo que se requirió monitorear toda la red. Además, se requería tener disponible el monitoreo 24×7. 

La compañía optó por la solución de PRTG 2500 y actualizaron en diciembre de 2017 a un PRTG XL1, lo que confirma su confianza en el Paessler.

La implementación del software de monitorización se hizo de manera proactiva por los directivos del grupo (16 forman el personal de TIC), quienes ya habían utilizado distintas herramientas opensource y de pago, sin embargo, no eran nada fáciles de usar. 

La plataforma de hardware sobre la que está montado el PRTG en las empresas de Globalia está basada en máquinas virtuales, tanto para el PRTG Core Server como las sondas remotas de PRTG. Han configurado 12,500 sensores para monitorear con PRTG Network Monitor, redes, servidores, dispositivos de almacenamiento, entornos virtualizados, bases de datos, aplicaciones, estado de copias de seguridad y KPI. Además de sondas remotas para la monitorización de redes externas para las sucursales y filiales. 

“Decidimos cambiar a la herramienta de Paessler por su facilidad de implantación, despliegue de la nueva monitorización y el uso por parte de personal no experto”, indicó Xisco Mateu, responsable del Departamento de IT de Networking y Seguridad, de Globalia. “Para esto hicimos una valoración completa de diferentes herramientas, tomando en cuenta su entorno, y análisis forense y de capacidad. El resultado de estos criterios nos dio la pauta para decidirnos por PRTG”.

Globalia utiliza una gran variedad de sensores a fin de monitorizar todos los elementos comentados anteriormente, además cuenta con servicios, aplicaciones y tareas de copia de seguridad con PRTG. Las interfaces de usuario PRTG que utilizan son: Web-Interface y Enterprise Console. El corporativo también adaptó el software a su entorno, con el desarrollo de una serie de scripts para la integración con Servicenow y la creación de determinados sensores personalizados.

“Globalia Sistemas es una empresa transversal que ofrece soporte IT a todas las empresas del grupo”, explicó Xisco Mateu. “El uso de PRTG también es transversal y permite tener una visión 360 de lo que está pasando en la infraestructura. PRTG nos ha permitido simplificar las operaciones sobre la infraestructura IT y mejorar los tiempos de respuesta a fin de asegurar los SLA acordados con nuestros clientes”.

La compañía española tiene implementado un Core Server PRTG y 5 sondas remotas, con las cuales monitorea los servidores y las aplicaciones, se trata de una monitorización híbrida de la infraestructura IT y servicios ubicados tanto en su data center como en servicios cloud. Toda la instalación de la solución de Paessler tardó únicamente tres meses.

Beneficios

“La utilización de PRTG ha ayudado a Globalia a resolver problemas y ha permitido reducir los costos operativos asociados a la monitorización y gestión de eventos del entorno de TI. Adicionalmente, nos ha permitido realizar estimaciones de crecimiento ajustadas, basadas en la gestión de la capacidad y tendencias de consumo”, aseguró Mateu.

La solución de Paessler le ha dado al Grupo la posibilidad de optimizar los recursos contratados con base en la demanda y la estacionalidad a fin de reducir los Opex del entorno. “De esta manera”, Mateu señaló, “nos permite tener un control en tiempo real del estado de nuestra plataforma, planificar futuros crecimientos y realizar análisis forense”.

El directivo considera que la característica o función de PRTG Network Monitor más importante es su facilidad de despliegue y uso, así como la cantidad de sensores predefinidos. Aun así, cuando el Grupo ha necesitado la asistencia personalizada de los ingenieros Paessler obtiene una respuesta satisfactoria mejor que otros proveedores de TI. Actualmente, Globalia trabaja en la creación automática de sensores con base en su ITSM

Dinasur y Mindbreeze ofrecerán software de búsqueda y gestión de conocimiento

Dinasur anunció la sociedad estratégica con Mindbreeze. Dinasur lleva años siendo un integrador de appliances de búsqueda, por lo cual cuenta con la experiencia y know how requeridos en el campo de la gestión de conocimiento y el big data. “Nuestras experiencias más recientes han subrayado la necesidad de herramientas que no sólo puedan gestionar grandes cantidades de datos, sino que además proporcionen a las empresas una ventaja competitiva”, explicó Antonio Navarro, consultor experto en Búsqueda Empresarial de Dinasur. “Estamos seguros de que en este momento de transición de Google Search Appliance, que deja de comercializarse, el dispositivo Mindbreeze es la alternativa ideal”.

“Lo que hemos visto es que las empresas le tienen miedo a los largos proyectos de implantación. Ese es exactamente uno de los puntos fuertes de Mindbreeze. Con un concepto innovador y numerosos conectores, Mindbreeze ofrece una facilidad de integración sin precedentes”.

En estos tiempos, las compañías disponen de toda la información que necesitan. Sin embargo, difícilmente pueden aprovecharla. Mindbreeze se ha propuesto agrupar todas las diferentes fuentes de datos y hacer que se puedan buscar para utilizar de manera efectiva esa riqueza de información. No obstante, Mindbreeze ofrece los resultados de búsqueda sólo a aquellas personas que tienen permisos para acceder a ellos.

“Somos muy restrictivos en nuestra elección de socios comerciales, y examinamos cuidadosamente todas las ofertas de asociación. Queremos garantizar que nuestros socios estén especializados en el uso y las capacidades de nuestro producto, lo que a su vez sirve para transmitir confianza a nuestros clientes. La asociación con Dinasur nos permite llegar a nuevos mercados geográficos y estar cerca de nuestros clientes”, comentó Daniel Fallmann, fundador y CEO de Mindbreeze.

Mindbreeze ya ha logrado una creciente red internacional de socios en países como Alemania, Gran Bretaña, Italia, Eslovaquia, México y Estados Unidos.

Mejores rendimientos computacionales, sin costos imposibles

Hoy en día la mayoría requerimos de una computadora que sea veloz y que nos permita realizar, en cuestión de segundos, las múltiples actividades que debemos hacer ya sean de tareas escolares, laborales o entretenimiento. Afortunadamente, existe tecnología accesible que nos permite actualizar las máquinas mejorando su rendimiento con una mínima inversión económica y sin tener que recurrir a la compra de un nuevo equipo.

Las Unidades de Estado Sólido Kingston (SSD) son el producto ideal para revivir la máquina que tienes guardada porque es muy lenta o para actualizar el equipo de cómputo que estás usando y estás a nada de meterlo al cajón porque te desespera el tiempo que tarda para realizar una acción que va desde prender o apagar el equipo hasta abrir tus aplicaciones.

Con el paso del tiempo, las computadoras sufren cierto desgaste y entre más tiempo tengan habrá mayores problemas de desempeño y esto representa importantes pérdidas de tiempos productivos. Por ejemplo ¿cuánto tiempo tarda tu computadora en encender cada día? Dependiendo del modelo y de los programas que tenga que cargar, puede ser entre 5 o 10 minutos y si consideramos esta acción recurrente de lunes a viernes, pensando en la semana laboral, el tiempo perdido es de casi una hora a la semana y si lo visualizamos a un año perdemos más o menos 52 horas de nuestras vidas, es decir un poco más de dos días, esperando a que encienda el equipo.

Para ayudarte a evaluar la situación del equipo de cómputo que tienes en casa, por favor considera las siguientes preguntas básicas:

  • ¿Has estado usando la misma PC por un periodo de entre tres y cinco años?
  • ¿Esperas por lo menos 3 minutos en prender o apagar tu equipo?
  • ¿Te ha pasado que te urge enviar tu tarea o un documento de trabajo muy importante por correo y la máquina tarda mucho en prender?
  • Si eres de las personas que les gusta hacer las tareas con video ¿cuánto tiempo tardas en hacer un render?

Si una o varias de tus respuestas son afirmativas, estás en el momento preciso de actualizar tu equipo de cómputo con el SSD Kingston, porque mejora dramáticamente la capacidad de respuesta del sistema con velocidades increíbles de inicio, carga y transferencia, comparado con los discos duros mecánicos y al no tener piezas móviles, las SSDs también son más resistentes y más confiables que el disco duro. Es posible revivir tu equipo “viejito” sin una gran inversión económica, pues la Unidad de Estado Sólido tiene un precio muy accesible.

Si piensas actualizar tu equipo, Kingston te sugiere acudir a los módulos de Mr. Fix en Office Depot y Digitalife.com.mx para que te ayuden con esto, pero sí tú quieres hacer la instalación puedes comprar el SSD Kingston en Amazon.com.mx, Mercado Libre, cyberpuerta.mx y pcel.com

Capgemini recibe certificación CMMi por óptima prestación de servicios

La empresa anunció que su operación en México recibió la certificación CMMI (Capability Maturity Model Integration)  nivel 5 para sus Servicios de Administración de Aplicaciones-AMS. El CMMI es una de las más importantes evaluaciones que validan la madurez y calidad de los servicios de tecnología que la empresa entrega a sus clientes en el país.

Para Capgemini, empresa especializada en servicios de consultoría tecnológica, este reconocimiento, en México,  da certeza a sus clientes actuales y futuros, pues es evidencia de madurez y calidad de procesos, y avala que éstos se están optimizando continuamente.

“La prioridad siempre es satisfacer las necesidades de nuestros clientes. Este reconocimiento refleja el compromiso de Capgemini en México de mantener siempre el más alto estándar de calidad y creación de valor. Si la calidad de nuestro servicio es extraordinaria y los procesos contribuyen en ganancias para el cliente, la transformación digital tiene mayores posibilidades de éxito”, dijo Alberto Balderas, director de Operaciones de Capgemini en México y Colombia.

Para Carlos Castilla, director general de Capgemini en México y Colombia, este reconocimiento es una respuesta a la demanda de los propios empresarios. “En los últimos años, nuestros clientes han exigido la innovación continua y la renovación de su complejo entorno de aplicaciones. Como resultado, en Capgemini renovamos e invertimos para lograrlo. Obtener el CMMI de nivel 5 para Servicios de Administración de Aplicaciones es un orgullo que se agrega nuestra lista de logros y certificaciones, demostrando el impulso continuo y el compromiso de mejorar la calidad de nuestras entregas”.

Como parte de este proceso de renovación y mejora continua, la empresa ha obtenido varias certificaciones y evaluaciones en los últimos años. Desde 2014, Capgemini en México comenzó con la validación de sus procesos en diferentes áreas para garantizar la calidad y madurez (ISO 9001, ISO 27001, eSCM-SP, CMMI DEV y CMMI SVC), convirtiéndose así en uno de los pocos proveedores en América Latina en obtener todas estas certificaciones.

A Capgemini le tomó un año en obtener la certificación CMMI Madurez Nivel 5. De acuerdo con los requisitos de CMMI, el 20% de la evaluación es la definición de los procesos; CMMI certifica que el proceso este documentado y que cumple con las prácticas de alta madurez que requiere el modelo. El otro 80% se refiere al hecho de que los evaluadores van con el equipo del proyecto para verificar el proceso. Ellos hablan con todos los roles involucrados en el servicio de esta naturaleza, que abarca desde gerentes, desarrolladores y arquitectos, entre otros.

El objetivo de Capgemini es verificar que la implementación de la operación se realice como se definió previamente y se ejecute correctamente. Esto también ayuda a corroborar los resultados de productividad y los niveles de calidad que se declararon antes de iniciar las operaciones.

Alberto Balderas señaló que estos logros son posibles gracias al entusiasmo, la pasión y la dedicación de los equipos de proyecto de Capgemini, que siempre buscan alcanzar los más altos niveles de excelencia y nunca se sienten satisfechos de permanecer en un nivel estándar.

“Tenemos varios años entregando servicios de AMS con altos niveles de calidad, en los cuales somos líderes de la industria. Con la evaluación de CMMI, quisimos afirmar al mercado que lo que hacemos sigue estándares de clase mundial, basados ​​en las necesidades de cada negocio, demostrando con hechos el gran compromiso de Capgemini en términos de calidad, tiempo de entrega y costo.  Esta es indudablemente la mejor forma de satisfacer a nuestros clientes”, dijo Balderas.