Emulación y virtualización de sistemas clásicos legacy, el beneficio integral

Stromasys, proveedor de soluciones de emulación y virtualización multiplataforma de clase empresarial, anunció cinco beneficios de la emulación y virtualización de los sistemas clásicos legacyy destacó cómo estas soluciones han evolucionado en las últimas décadas y se han adaptado a las nuevas tecnologías.

“La emulación y virtualización son la opción ideal para aquellas organizaciones que necesitan comenzar con un proceso de transformación digital pero que todavía necesitan sus aplicaciones clásicas ‘legacy’ y no pueden asumir el riesgo de reinventar la lógica de negocios en una migración de software”, explicó Eduardo Serrat, director de Tecnología de Stromasys.

De acuerdo a un informe publicado por IDC en el primer semestre de 2017, el mercado global de servicios en nube pública creció 28,6% en comparación con el mismo período de 2016, con un total de 63.200 millones de dólares. Y para 2018, se pronosticó un crecimiento del 40% en inversiones para soluciones en nube en América Latina.

Stromasys listó cinco beneficios de la emulación y virtualización de sistemas clásicos legacy bajo la tecnología Charon.

  1. Reducción del costo: las soluciones de emulación y vitualización tienen un bajo costo durante la migración total y, por lo general, el valor es menor que el costo del soporte de hardware clásico “legacy” durante un año entero.
  2. Reducción de riesgo: elimina el riesgo de tiempo de inactividad no planificado.
  3. Ahorro de energía: la reducción sustancial del consumo de energía reduce el impacto medioambiental de la empresa.
  4. Reducción de espacio físico y disipación de calor asociado a los sistemas clásico, “legacy”.
  5. Protección de la inversión: las aplicaciones seguirán funcionando sin cambios en una plataforma moderna, garantizando la continuidad de los negocios.

La tecnología Charon se integra a la infraestructura de virtualización existente en una empresa, ya sea basada en Oracle VM, VMWare, Hyper-V, XEN, entre otros, proporcionando un alto rendimiento para las plataformas emuladas, VAX, ALPHA, Solaris/SPARC y HP PA-RISC. También es posible instalarla en servicios en la nube contratados por el cliente o suministrados por Stromasys. “De esta forma, el cliente puede consolidar todas sus aplicaciones y sistemas en una única arquitectura de hardware moderna, manteniendo sus aplicaciones críticas que dependen de equipos obsoletos”, finalizó Serrat.

HD Latinoamérica festeja el mes patrio con sus socios de canal

HD Latinoamérica lanza promociones patrias para el canal que incluyen las tecnologías de ultrabac y Back Up Everything, las cuales dan respuesta a las actuales necesidades del mercado mexicano respecto al almacenamiento datos en la nube y a la recuperación ante desastres, este último y más destacable debido a las grandes pérdidas de información y económicas que se han presentado en los últimos años (a México le cuesta aproximadamente 2942 MDD un desastre natural), que además ocasionan colapsos en las empresas, dejándolas sin operación.

Las principales razones por las que se pierde información en las empresas son: problemas de hardware, error humano, problemas de software, virus y catástrofes naturales.

Por otro lado, está el almacenamiento de información, que juega el papel de mediador, es decir que garantiza la integridad de la información, respaldándola en todo momento y dejándola disponible anytime-anywhere.

“Es importante que el canal pueda visualizar dos cosas: la posibilidad de ayudar al sector empresarial a disminuir sus riegos informáticos y la oportunidad de incrementar sus oportunidades de negocio, además de saber que cuentan con tecnologías y con el respaldo de un mayorista que le aportará valor para lograr sus objetivos”, señaló Fausto Escobar, director general de HD Latinoamérica.

 

Las promociones que el mayorista ofrece al canal incluyen descuentos de hasta el 30 por ciento más el respaldo y apoyo en todo el ciclo de venta, y por supuesto financiamiento en caso de requerirlo. Estarán vigentes todo el mes de septiembre.

Cisco aporta conectividad integral al Campus Querétaro de Arkansas State University

La Institución, cuyo Campus Querétaro abrió sus puertas en 2017, eligió la solución Cisco DNA para tener conectividad en todo el campus, lo que incluye laboratorios, bibliotecas, salones de clase, oficinas administrativas, dormitorios y cafeterías, además de tener conexión para aprendizaje virtual y colaboración con la sede central de esta universidad norteamericana ubicada en Jonesboro, ciudad del condado de Craighead, en Estados Unidos.

Gracias a la tecnología de Cisco DNA la universidad cuenta con una red automatizada, segura, ágil e inteligente, que permite ahorrar costos en WAN, análisis de tráfico cifrado o ETA, política automatizada en toda la red de acceso, mayor productividad con Machine Learning, con lo que se tiene conectividad permanente, seguridad con geolocalización, aprendizaje virtual y remoto, con la consecuente colaboración entre México y Estados Unidos de América en materia educativa, ya que los estudios realizados en esta institución son reconocidos por la Secretaría de Educación Pública de México (SEP) y la Higher Learning Commission de la Unión Americana.

El partner de Cisco para la implementación fue Cen Systems e incluyó las siguientes soluciones:

  • Cisco Prime: que habilita el aprovisionamiento de los servicios de la red.
  • Cisco Identity Services Engine: que permite controlar todos los accesos desde un solo lugar; y los switches de core y de distribución, cuyo objetivo es mejorar la conectividad constante e ininterrumpida para más de 2,500 usuarios en todo el campus, la seguridad y la e-ciencia.
  • Cisco ONE: que puede actualizar toda la infraestructura de manera fácil y constante.
  • También puede vigilar la seguridad de los alumnos y el personal en cualquier parte del campus gracias a la geolocalización, la identificación de usuarios, lo que ayuda a detectar emergencias y enviar atención a puntos específicos del campus en momentos en los que el tiempo es un factor determinante. Además puede tomar mejores decisiones basadas en datos al analizar el comportamiento de los usuarios en la red por medio de CMX.
  • En fases posteriores pondrán en funcionamiento capacidades como el aprendizaje remoto e implementaciones como Cisco Webex Board, el pizarrón interactivo que permite la compartición y modificación de archivos a distancia, en tiempo real, con un grupo seleccionado de colaboradores, para facilitar las presentaciones inalámbricas y las videoconferencias.

Arkansas State University se estableció en Querétaro por ser un estado con gran fortaleza en los negocios, por lo que adquirió un terreno de 66,000 metros cuadrados donde construyó 8 edificios principales, 2 residenciales, 2 académicos y una variedad de instalaciones deportivas y culturales, en un complejo diseñado para la experiencia educativa de los inscritos en 10 licenciaturas y 2 maestrías. Para el año 2023 se espera contar con una matrícula de 5 mil estudiantes con lo que crecerá la infraestructura tecnológica para dar conectividad a 2,500 alumnos residentes y a partir del 2019, a las primeras casas que se construirán alrededor del campus para dar paso a una ciudad inteligente con todos los adelantos del Internet de Todo (IoT).

Gracias a la globalización y al avance de las tecnologías de la información y la comunicación la educación universitaria logra los mayores niveles de calidad en cualquier parte del mundo. Este es precisamente el caso de Arkansas State University en su campus de Querétaro que, con la solución Cisco DNA logra la conectividad necesaria para estar a la vanguardia.

5 puntos para aplicar la Revolución 4.0 a la empresa

La cuarta revolución industrial, marcada por la convergencia de tecnologías digitales -nanotecnologías, neurotecnologías, robots, inteligencia artificial, biotecnología, sistemas de almacenamiento de energía, drones e impresoras 3D, entre otras- abre la posibilidad de que miles de millones de personas estén conectadas por distintos dispositivos amigables, con poder de procesamiento, capacidad de almacenamiento y acceso al conocimiento sin precedentes: tablets, teléfonos móviles, de servicio de voz para el hogar o coches, electrodomésticos o máquinas inteligentes.

Aprovechar las bondades de la tecnología en el diseño de procesos, y su implementación dentro de la empresa genera un cambio estructural que a su vez abre un abanico de posibilidades para relacionarse con los otros, transformar los modelos de negocio y las cadenas de suministro.

Miguel Estrada, profesor de Dirección de Operaciones en Ipade Business School, menciona que a partir de la conectividad y las nuevas tecnologías es posible el desarrollo de nuevas relaciones colaboradores-cliente-proveedor, generando un nuevo ecosistema en el entorno de negocio. Lo importante, señala, es ser capaz de responder la pregunta esencial: ¿Para qué se aplicará la Revolución 4.0 en mi empresa?

“La tecnología permite, entre otras cosas, controlar continuamente el rendimiento, recopilar y analizar datos de múltiples sistemas, lo que aplicado en la operación revolucionará el entorno de negocio. Esto nos lleva a nuevas relaciones colaboradores-cliente-proveedor, a nuevas convergencias, es decir, ya no es el display sino cómo utilizas la gran conectividad, la analítica y representa pasar de las relaciones cliente-proveedor de una cadena de suministro clásica a relaciones de ecosistema”, explicó Miguel Estrada.

El académico destaca el papel que juega la conectividad en la Revolución 4.0. “Estamos viviendo un cambio estructural. Automatización ya había desde hace algún tiempo atrás y sigue evolucionando. La impresión 3D ya existía y también ha seguido desarrollándose, pero no existía la tecnología de conectividad y almacenamiento de información que tenemos ahora y permite usarlas como un sistema. La convergencia de estas tecnologías, por ejemplo, el potencial al usarse de manera combinada, permitiendo nuevos modelos de operación, de servicio y de negocio” señaló.

Ante este escenario, Estrada propone 5 puntos que parten de la Dirección de Operaciones para lograr este cambio estructural y utilizar la tecnología 4.0 en la empresa en beneficio del entorno de negocios:

  • –        Conceptualización con usuarios extremos: Parte de la búsqueda de nuevos conceptos de servicio o negocio con ideas extremas, es decir innovadoras o disruptivas, fuera del especialista tradicional. Resulta que las ideas extremas son de mucho más calidad que las del especialista, dado que el especialista tiende a converger en la misma línea de ideas que ya ha propuesto con anterioridad. Es necesario buscar personas que den ideas disruptivas para poder explorar conceptos de negocio con puntos de vista nuevos que nos lleven a modelos de operación que brinden servicios o bienes diferenciados de la competencia.
  • –        Exploración: Normalmente lo que hacemos es enfocarnos al cliente típico. Lo que se recomienda es ir con el cliente que no tienes y quisieras tener. “Por ejemplo, muchos de los negocios no son para millennials porque son personas que están empezando a trabajar. La cuestión es que van a llegar y cuando lleguen, se debe estar preparado. Es necesario explorar su nuevo ecosistema, cómo será en el futuro, con la tecnología y servicios que solicitarán”.
  • –        Cocreación: Ayúdate del cliente. Tu usuario o cliente te puede enseñar a diseñar un producto o proceso distinto al que tienes y que le será más atractivo.
  • –        Cambio de relación con los competidores: Utiliza a tus rivales como aliados, por ejemplo, con la creación de un clúster colaborativo. Es decir, colaborar en lo que no compites pero desarrolla al ecosistema de negocios, competir creando valor para todos desarrollando el conocimiento o valor colectivo. “No es competencia o colaboración, es las dos cosas de manera sinérgica, es “coopetencia”.
  • –        Diseño humanizado: La pregunta no es cómo aplicar la revolución 4.0, sino para qué, y la respuesta debe estar alineada con el objetivo de crear un ecosistema en el que la conectividad es clave y los nuevos servicios se desarrollan centrados en la persona, en todas sus dimensiones.

Strendus anuncia su lanzamiento en todas las plataformas digitales

Strendus tomó el paso para poder llevar la emoción del entretenimiento en línea a la palma de las manos de todos los usuarios. Con más de 400 juegos para cualquier amante de los juegos de azar y sorteo, el catálogo se divide en 3 grandes subverticales: Slots, Video Bingo y Sports. Aquí podrás disfrutar de juegos clásicos de cartas como Baccarat, Blackjack y Casino Poker; juegos de mesa como ruleta y dados; y juegos varios como Keno (variante del Bingo) y Ruleta de la suerte. Además de participar en actividades de entretenimiento que engloban una gran gama de deportes, ligas y competiciones no solamente del rubro atlético.

Adicionalmente, Strendus es cliente de los proveedores de juegos electrónicos y plataformas de entretenimiento más renombrados y galardonados en el circuito internacional como BtoBet, Microgaming, Ainsworth y Play’NGo, mismos que ofrecen las mejores soluciones y recursos en gaming electrónico.

Strendus es una de las páginas más completas pensadas para llevar la emoción al público mexicano, además de ser de las únicas en contar con regulación totalmente vigente. La plataforma está diseñada de manera en la que el cliente pueda sacar el mayor provecho de sus conocimientos en apuestas online y encuentre adrenalina en sus apuestas favoritas en cuestión de unos cuantos clicks. Strendus otorga un servicio personalizado, contenido de valor único y propio para cualquier usuario que esté interesado en él.

A la par de crear experiencias únicas, Strendus apoya un consumo responsable y promueve un entorno de juego sano. La plataforma cuenta con herramientas de límite de apuestas y/o montos, además de la posibilidad de autoexclusión permanente.

Comienza a vivir la adrenalina del entretenimiento en línea en una de las plataformas más importantes del país. Descarga ya Strendus en  sistemas IOS o Android completamente gratis, o visita la página de Strendus.

¿Vacas inteligentes? O sobre el diseño de productos del IoT que no fallen

Por Cheryl Ajluni, líder de Soluciones del Internet de las Cosas, Keysight Technologies

Nadie busca diseñar un producto del Internet de las Cosas (IoT) que vaya a fracasar, pero sucede. Abundan las historias sobre los dispositivos que fracasaron, desde cerraduras inteligentes fáciles de hackear hasta los 440,000 detectores de humo y monóxido de carbono que tuvieron que retirar del mercado por fallas de fabricación.

Cuando el problema se presenta solo en un producto y esto se puede resolver reemplazándolo, el impacto en la marca y en la rentabilidad de la empresa es mínimo. Pero cuando se trata de productos del IoT que están instalados en lugares de difícil acceso o en entornos complejos, el asunto ya se torna más difícil de manejar. Y en estos casos, es posible que el éxito o fracaso de una empresa dependa del funcionamiento de esos artefactos.

Hoy en día, este escenario es una realidad, ya que el IoT crece cada día más y los dispositivos relacionados comienzan a formar parte de más y más aplicaciones en lugares de difícil acceso. La agricultura inteligente presenta un ejemplo perfecto: se están utilizando sensores del IoT para distintas aplicaciones con el fin de hacer que la producción sea más productiva y sostenible. Por ejemplo, se usan para monitorear los niveles de humedad en la tierra, para desmalezar la cosecha, para ayudar a los pollitos a salir del huevo e incluso para controlar la salud de las vacas destinadas para el consumo humano.

Cuando se utilizan para crear “vacas inteligentes”, los sensores del IoT se implantan en distintos lugares debajo de la piel de los animales. El proceso requiere una cirugía menor con anestesia. Una vez que están operativos, se espera que los sensores funcionen adecuadamente durante por lo menos tres años. Durante ese período, se monitorean distintos factores, como el comportamiento e incluso la temperatura corporal de las vacas, lo que puede alertar sobre posibles enfermedades.

Suena muy simple, pero dado que los sensores se encuentran dentro de la vaca, no es tan fácil acceder a ellos si fallan. Además, el peso de estos animales y su hábito de frotarse continuamente contra varios objetos plantean un problema adicional. ¿Qué sucede cuando una vaca adulta, que pesa más de 800 kg, decide frotar contra algo justo la parte donde se encuentra ubicado el sensor? ¿Se dañaría?

Estas preguntas son válidas y señalan un diferenciador clave entre los dispositivos del IoT que funcionan y aquellos que no. Los productos del IoT que funcionan correctamente se diseñan intencionalmente para no fallar, no solo en el laboratorio bajo condiciones ideales de ensayo, sino también en el mundo real, donde distintos factores conspiran contra ellos.

A continuación, presentamos cinco factores clave que podrían afectar el funcionamiento de los dispositivos del IoT en el mundo real y algunos consejos sobre cómo superar los desafíos relacionados:

Problemas de carga y congestión

Desde el momento en que se enciende un nuevo dispositivo del IoT, existen cientos de otros dispositivos similares a su alrededor. En una sola granja inteligente, podría haber un rebaño donde cada animal tiene implantados varios sensores; sensores para medir las variables en la tierra, las plantas y el ambiente; sensores para monitorear remotamente a los animales; robots que realicen tareas agrícolas y drones, sin mencionar los aparatos del IoT que use el propio granjero. La congestión podría afectar el funcionamiento normal de los dispositivos. Un incremento drástico en el tráfico de la red tiene un efecto similar, lo que obliga a que los dispositivos deban retransmitir datos continuamente. Como consecuencia, es posible que se agote más rápido la batería o que falle.

Para evitar esto, los fabricantes deben probar la capacidad de sus dispositivos de funcionar normalmente con una carga de tráfico similar a la que se espera en el entorno de aplicación objetivo. Esas pruebas también deben realizarse simulando distintos tipos de tráfico, como transmisión de video o voz.

Interferencia

Al utilizar muchos dispositivos del IoT bajo una misma banda abarrotada, como podría suceder en una granja grande, se incrementa significativamente la probabilidad de que haya interferencia entre los artefactos. Muchos de estos dispositivos no pueden detectarse entre sí —y mucho menos compartir las ondas de radio— y eso hace que algunos se comporten de formas inesperadas.

Para evitar estos problemas, es esencial realizar pruebas de coexistencia. Esto puede ayudar a los fabricantes a determinar la tolerancia que tiene un dispositivo con respecto a otras señales de radio y garantizar que haya un determinado nivel de funcionamiento a pesar de operar en la presencia de otros protocolos de radio. También habría que probar que los dispositivos del IoT puedan soportar distintas amplitudes, rangos de datos y protocolos con los que probablemente se encuentren en el mundo real.

Dificultades de itinerancia

Por lo general, los dispositivos inalámbricos del IoT se mueven de un lado a otro. Eso puede ser un problema si no están diseñados con algoritmos sólidos que les permitan minimizar el retraso y evitar los cortes, ya que un corte de algunos segundos podría ocasionar la pérdida de información muy valiosa. La congestión e interferencia tienen un gran impacto en el funcionamiento de los algoritmos de itinerancia, lo que hace que sea esencial probar los dispositivos bajo condiciones de red reales para evitar que fallen. Incluso en el ejemplo de la granja inteligente, implantar un dispositivo del IoT en una vaca solo tiene sentido si el granjero puede acceder a la información de ese sensor.

Una de las formas de evitar este problema es probar el comportamiento de transferencia de itinerancia en los dispositivos del IoT en condiciones complejas. Se recomienda simular la antena del dispositivo para garantizar que pueda soportar la itinerancia y, al mismo tiempo, operar a pesar del volumen y la combinación de tráfico que se encuentra en el mundo real.

Interoperabilidad con la infraestructura de red

Puede ser que, un día, un dispositivo del IoT funcione bien y que, al siguiente, empiece a actuar erráticamente o deje de funcionar por completo. Es probable que el problema no surja del dispositivo en sí sino del usuario, que actualizó el firmware en los puntos de accesos (AP) inalámbricos. Un pequeño cambio en la infraestructura de la red puede hacer que un dispositivo del IoT que funciona perfectamente, como un sensor implantado en una vaca, ya no sea reconocido por el ambiente objetivo. Afortunadamente, aplicar un conjunto de pruebas que evalúen el cumplimiento con el protocolo de red puede ser una defensa eficaz contra este tipo de falla, siempre que incluya todas las funciones definidas del protocolo inalámbrico de un dispositivo y no solo un pequeño subconjunto.

Violaciones de seguridad

Todos los dispositivos del IoT son vulnerables a ataques, incluso si están implantados en una vaca. A veces, los hackers buscan la información que recopilan los dispositivos. Otras veces, les interesa encontrar una forma de explotar la seguridad débil de un dispositivo para ingresar furtivamente a una red. Eso es lo que puede suceder cuando hay un dispositivo itinerante y se producen interferencias. 

Esa interferencia puede dominar al dispositivo y generar fallas, lo que a su vez podría ocasionar grandes retrasos en la conexión y una mayor vulnerabilidad temporal a ataques. Una de las formas de evitar este escenario es probar los dispositivos con un conjunto de pruebas que tengan la capacidad de simular el comportamiento itinerante en un ambiente abarrotado de radiofrecuencias.

A medida que más consumidores comienzan a confiar en el poder del IoT, también aumenta la presión sobre los fabricantes para que garanticen productos de confianza. Para aquellas empresas que buscan diseñar productos del IoT infalibles, la clave está en entender a la perfección el entorno de aplicación del artefacto y en realizar las pruebas adecuadas para asegurar que puede funcionar a pesar de los factores que podrían afectan su desempeño. Más allá de cuál sea la aplicación de estos dispositivos —desde vacas inteligentes hasta dispositivos de monitoreo médico—, las empresas que buscan priorizar la fiabilidad sin duda aprovecharán las oportunidades cada vez mayores que ofrece el mercado del IoT.

Intel, próxima a considerar mercados millonarios en inteligencia artificial

Por Navin Shenoy, vicepresidente ejecutivo y gerente general del Grupo de Centros de Datos en Intel Corporation.

Durante la conferencia Data-Centric Innovation Summit de Intel, compartí nuestra estrategia para el futuro de la computación basada en datos, así como una visión expansiva del mercado potencial (TAM, por sus siglas en inglés), y detalles nuevos acerca de nuestro plan de desarrollo de productos. El aspecto central de nuestra estrategia es un profundo conocimiento tanto de los retos, como de las oportunidades más grandes que enfrentan nuestros clientes en la actualidad.

Como parte de mi función en la dirección de los negocios basados en datos de Intel, me reúno con los clientes y socios de todo el mundo. Aun cuando provienen de muchas industrias diferentes y enfrentan desafíos empresariales únicos, todos tienen algo en común: la necesidad de obtener más valor de las enormes cantidades de datos. 

Me parece asombroso que 90% de los datos del mundo hayan sido generados en los dos últimos años. Además, los analistas pronostican que para 2025 los datos crecerán exponencialmente 10 veces más y llegarán a los 163 zettabytes. Pero aún tenemos un largo camino que recorrer para aprovechar totalmente el poder de estos datos. Se puede decir que solo el uno por ciento se utiliza, procesa y se les da seguimiento. ¡Imaginen lo que podría pasar si pudiéramos provechar efectivamente más de estos datos a escala!

La intersección de datos y transporte es un ejemplo perfecto de lo anterior en acción. El potencial de supervivencia de la conducción autónoma es muy grande – muchas vidas podrían salvarse alrededor del mundo como resultado de un menor número de accidentes. Sin embargo, para lograrlo, se necesita una combinación de tecnologías que trabajen en conjunto – incluyendo todo: la visión por computadora, la computación en el borde, el mapeo, la nube y la inteligencia artificial (IA).

Lo anterior requiere, a su vez, un cambio importante en la manera en que nosotros como industria, vemos la computación y la tecnología basada en datos. Necesitamos considerar los datos de manera global, incluyendo cómo los movemos con mayor rapidez, cómo almacenamos una mayor cantidad y cómo procesamos todo desde la nube hasta el borde.

Implicaciones para la infraestructura

Este enfoque de extremo a extremo es un aspecto fundamental para la estrategia de Intel, y cuando lo vemos desde esta perspectiva – ayudando a los clientes a mover, almacenar y procesar datos – la oportunidad del mercado es enorme. De hecho, revisamos nuestra visión expansiva del mercado potencial de $160 mil millones de dólares en 2021 a $200 mil millones en 2022 para nuestros negocios basados en datos. Esta es la mayor oportunidad en la historia de la compañía.

Como parte de mi discurso inaugural en la conferencia, describí las inversiones que estamos haciendo a lo largo de una amplia cartera para maximizar esta oportunidad.

Muévete con mayor rapidez

La explosión de datos conlleva la necesidad de mover los datos a mayor velocidad, sobre todo dentro de los centros de datos de hiperescala. La conectividad y la red se han convertido en cuellos de botella para utilizar con mayor efectividad y liberar la informática de alto desempeño. Las innovaciones como la  fotónica de silicio de Intel, están diseñadas para eliminar esas barreras, utilizando nuestro talento único de integrar el láser en el silicio y, finalmente, brindar el costo más bajo y energía por bit y el más alto ancho de banda.

Asimismo, mi colega Alexis Bjorlin anunció que seguimos expandiendo nuestra cartera de conectividad con una nueva e innovadora línea de productos SmartNIC – cuyo nombre de código es Cascade Glacier, que se basa en las FPGA Intel® Arria® 10 y permite la optimización del desempeño de los sistemas basados en el procesador Intel Xeon. Los clientes ya la están probando y Cascade Glacier estará a la venta en el primer trimestre de 2019.

Almacena más

Para muchas aplicaciones que se ejecutan actualmente en los centros de datos, no sólo se trata de mover datos, sino también de almacenar datos de la forma más económica. Con ese propósito, nos hemos dado a la tarea de transformar por completo la jerarquía de memoria y de almacenamiento en el centro de datos.

Recientemente dimos a conocer más detalles acerca de la  memoria persistente Intel Optane DC, una clase totalmente nueva de innovación en memoria y en almacenamiento, que permite un gran nivel de memoria persistente entre  la DRAM y los SSD, sin dejar de ser rápida y asequible. Y ahora, compartimos una nueva métrica de desempeño que muestra que los sistemas basados en la memoria persistente Intel Optane DC pueden alcanzar un desempeño hasta 8 veces mejor en ciertas consultas analíticas que configuraciones que sólo se basan en la memoria DRAM.

Clientes como Google, CERN, Huawei, SAP y Tencent ya la consideran revolucionaria. Y hoy, empezamos a enviar las primeras unidades de la memoria persistente Optane DC. Yo personalmente le entregué la primera unidad a Bart Sano, vicepresidente de Plataformas de Google. Se espera que esté disponible en general para 2019, con la próxima generación de procesadores Intel Xeon.

Además, en la conferencia Flash Memory Summit, anunciamos los nuevos productos basados en  Intel® QLC 3D NAND, y demostramos la forma en que compañías como Tencent utilizan esta tecnología para liberar el valor de sus datos. 

Procesa todo

Mucho ha cambiado desde que introdujimos el primer procesador Intel Xeon hace 20 años, pero el apetito por el desempeño informático es más grande que nunca. Desde el lanzamiento de la plataforma Intel Xeon Scalable en julio pasado, hemos visto que la demanda sigue creciendo, y tengo el placer de decir que ya enviamos más de 2 millones de unidades en el segundo trimestre de 2018. Mejor aún, en las primeras dos semanas del tercer trimestre, enviamos 1 millón de unidades más.

Nuestras inversiones en la optimización de los procesadores Intel Xeon y las FPGA Intel para la inteligencia artificial también están dando resultados. En 2017, más de 1 mil millones de dólares en ingresos provinieron de clientes que ejecutaban inteligencia artificial en procesadores Intel Xeon en el centro de datos. Y continuamos mejorando el adiestramiento de la inteligencia artificial y el desempeño de la inferencia. En total, desde 2014, nuestro desempeño mejoró en más de 200 veces.

Lo que viene es igualmente emocionante para mí. Hoy dimos a conocer el plan de desarrollo de la próxima generación para la plataforma Intel Xeon:

·         Cascade Lake es un procesador Intel Xeon Scalable futuro, basado en tecnología de 14 nm que introducirá la memoria persistente Intel Optane DC y un conjunto de nuevas funciones de inteligencia artificial llamado Intel DL Boost. Este acelerador de IA integrado aumentará la velocidad de las cargas de trabajo de inferencia de aprendizaje profundo, con una velocidad esperada de reconocimiento de imágenes 11 veces mayor a la de los procesadores de la generación actual Intel Xeon Scalable cuando los lanzaron en julio de 2017. Los envíos de Cascade Lake están planeados para más adelante este año. 

·         Cooper Lake es un procesador Intel Xeon Scalable futuro que se basa en la tecnología de 14 nm. Cooper Lake introducirá una plataforma de nueva generación con importantes mejoras en el desempeño, nuevas funciones de entrada/salida, nuevas capacidades Intel® DL Boost (Bfloat16) que mejoran el desempeño del adiestramiento de la IA/aprendizaje profundo, e innovaciones adicionales de memoria persistente Intel Optane DC. Se espera hacer envíos de Cooper Lake en 2019.

·         Ice Lake es un procesador Intel Xeon Scalable futuro basado en tecnología de 10 nm, que comparte una plataforma común con Cooper Lake, y se planea como una pronta continuación que estará disponible para 2020.

Además de invertir en las tecnologías correctas, también estamos ofreciendo soluciones optimizadas –del hardware al software– para ayudar a que los clientes estén a la delantera de sus crecientes demandas de infraestructura. Por ejemplo, introdujimos tres nuevas soluciones Intel Select Solutions centradas en la IA, la cadena de bloques y  SAP Hana*, que se avocan a simplificar el desarrollo y acelerar la generación de valor para nuestros socios del ecosistema y clientes.

La oportunidad que nos espera

En resumen, entramos en una nueva era de computación basada en datos. La proliferación de la nube más allá de la hiperescala y en la red y en el extremo, la inminente transición a la tecnología 5G, y el crecimiento de la inteligencia artificial y la analítica, han producido un cambio profundo en el mercado, creando enormes cantidades de datos en su mayoría sin aprovechar.

Y cuando se le agrega el crecimiento en el poder de procesamiento, las innovaciones en conectividad, almacenamiento, memoria y algoritmos, terminamos con una forma completamente nueva de pensar sobre la infraestructura. Estoy emocionado por la enorme y rápida oportunidad basada en datos que nos espera ($200 mil millones de dólares para 2022).

Para ayudar a que nuestros clientes muevan, almacenen y procesen cantidades de datos gigantescas, tenemos planes de acción para ganar en las áreas de mayor crecimiento y tenemos una cartera sin igual para impulsar nuestro crecimiento –incluyendo productos líderes en desempeño y un amplio ecosistema que cubre todo el mercado basado en datos.

Cuando la gente me pregunta qué me gusta de trabajar en Intel, la respuesta es simple. Estamos inventando – y escalando– las tecnologías y soluciones que marcarán el inicio de una nueva era de la computación y ayudarán a resolver algunos de los mayores problemas de la sociedad. 

BMC hace recomendaciones para navegar el mundo multi-cloud

De acuerdo con resultados de una encuesta de Gartner, los ingresos por servicios en la nube llegarían a 305.8 billones de dólares en 2018, lo cual representa un aumento de 17.5% contra 2017, y a medida que más empresas migran a procesos más digitalizados, sumado a la presión que los líderes actuales de TI sienten para tener un ambiente de nube acorde a sus necesidades, se confirma que los servicios en la nube se han vuelto más importantes.

 “Frente a este contexto, los líderes de TI requieren enfrentar nuevos retos acerca de seguridad, visibilidad, costo, desempeño, automatización y migración. Pero, ¿cómo pueden enfrentarse a estos retos si muchos tomadores de decisiones de TI no tienen las herramientas para obtener un panorama completo del ambiente multi-cloud o no saben lo que su empresa está gastando actualmente en la nube?”, indicó Ricardo Wolff, country director de BMC México.

 Tenga controlada la situación – mapeo de aplicaciones

De acuerdo con observaciones del ejecutivo de BMC, el mapeo de aplicaciones es una forma de proveer una visibilidad robusta sobre la parte de la infraestructura de TI que soporta a servicios particulares del negocio, como los distintos componentes de su ambiente multi-cloud. “En ese sentido, un mapa de aplicaciones hace posible monitorear y documentar los servicios del negocio. Más aún, permite al área de TI evaluar el impacto de cambios potenciales, configuraciones y verificar otras funciones para asegurar un óptimo soporte al negocio”, explica Wolff.

 Para BMC, las herramientas de mapeo de aplicaciones de descubrimiento automático pueden recolectar datos en infraestructura de red y servicios de nube y sus relaciones, para crear mapas de aplicaciones escalonados y robustos. “Por eso es que estableciendo relaciones entre los propietarios de las aplicaciones y gerentes de configuración, y extendiéndose a lo largo de servicios de nube, los mapas de aplicaciones realmente pueden avanzar el alineamiento TI-negocio y ayudan a mantener el ambiente de nube responsivo a las demandas del negocio”.

De ahí que cuando se trata de mapear un ambiente multi-cloud, Wolff recomienda empezar con una estrategia de “comienza en cualquier parte” (start anywhere) para permitir a los propietarios de las aplicaciones recibir una mejor experiencia al permitirles iniciar con lo que ya conocen, en vez de hacerlos descubrir qué constituye la “cima”. El mapeo “start anywhere” puede comenzar también desde múltiples puntos simultáneos, lo que significa que los equipos de TI pueden hacer frente a las aplicaciones mucho mejor, o cuando las distintas partes de una relación están perdidas y pueden mitigar la gestión de los retos que las herramientas estándar enfrentan en las complejas infraestructuras centradas en la nube.

La complejidad

Por otro lado, Ricardo Wolff señaló que una reciente encuesta de BMC encontró que 40% de los tomadores de decisiones de TI globales no saben cuánto gasta su empresa en servicios de nube. A esto se une el hecho de que el 78% de los tomadores de decisiones de TI están buscando maneras de integrar soluciones emergentes, como la inteligencia artificial en sus estrategias multi-cloud, y esto destaca una tendencia preocupante. ¿Cómo pueden las nuevas tecnologías ser implementadas en ambientes de nube si no hay visibilidad aparente de gastos y recursos?

 “Multi-cloud ha cambiado realmente el juego, por lo que la manera tradicional de ver la infraestructura de TI ya no funciona. Los líderes de TI deben considerar nuevas formas de gestionar ambientes multi-cloud para asegurar que están recibiendo los beneficios esperados de nubes públicas en términos de ahorros, optimización de desempeño automático e incremento de seguridad y gobernanza. Deben adaptar también su estrategia de gestión usando nuevas soluciones tecnológicas hecha para multi-cloud que aprovechen el ‘machine learning’ y la inteligencia artificial para reducir la complejidad”, explicó el directivo.

 Asegurando agilidad, cumplimiento, innovación y control de costos

El 44% de los tomadores de decisiones en la encuesta BMC-Gartner están de acuerdo en que adoptar multi-cloud es esencial para mantener la agilidad. “Esto se relaciona con evitar el bloqueo del proveedor, que es esencial para cualquier organización competitiva que quiera tener una presencia robusta en nubes alrededor del mundo”, dijo Wolff, quien agregó que el elemento de bloqueo se convertirá en un problema mayor para las organizaciones. “Por ejemplo, todo está muy bien si se tiene un acuerdo global con Amazon Web Services (AWS), pero cuando va a Brasil, ¿sería más fácil tal vez trabajar con un proveedor de nube brasileño competitivo que además garantice que los datos estén almacenados y gestionados bajo las leyes españolas? Las soluciones multi-cloud que no sean muy astringentes ayudarán a facilitar esta estrategia a los negocios globales”.

 “Comprendiendo los costos a lo largo de cualquier modelo de nube pública, privada o híbrida, es un elemento crítico para mantener la agilidad e incrementar la visión del negocio. Por eso es que la infraestructura multi-cloud más efectiva será aquella que combine una solución de gestión de costos que analice los costos actuales y futuros. La visión y el control sobre el capital y los gastos de operación pueden y deben ser racionalizados. Con una sola vista de los gastos en infraestructura propia y de nube pública, las organizaciones pueden analizar y rastrear costos y utilización, mientras identifican áreas con sobregastos y anticipan costos futuros”, agregó el principal directivo de BMC en México.

 Conclusión

En resumen, BMC enumero consejos rápidos para estar preparados para abordar con éxito  estrategias de ambientes multi-cloud:

  • Obtenga una mejor visibilidad de los activos para contar con la imagen completa de los servicios multi-cloud.
  • Eficientice las estrategias de gestión: simplificar y automatizar tanto como sea posible.
  • La inteligencia artificial y el aprendizaje de máquinas pueden quitar la repetición actividades de la gestión multi-cloud.
  • Tenga una imagen clara de los costos de nube: considere que puede no ser sensato ejecutar todo en la nube.
  • Adopte una postura proactiva para ofrecer una más amplia superficie de ataque y asegure el cumplimiento de los ambientes multi-cloud.

 “Siguiendo claros estos pasos, los ambientes multi-nube pueden ser administrados con cuidado para soportar el óptimo desempeño del negocio. El primer paso es tener claro con qué está tratando y dar los siguientes necesarios para simplificar todo lo que se pueda. Esperamos ver que muchos tomadores de decisiones de TI cuenten con un mejor control de sus ambientes multi-cloud lo que resta del año”, finalizó Wolff.

Protección Dell EMC: La solución de mejor costo de propiedad para PyME

Y en estos días inciertos, un poco se seguridad no cae nada mal. Como la idea es que sean las PyME las que más refuercen su camino de crecimiento, una plataforma que les ayude a mantener su información y procesos a resguardo es siempre bienvenida, y si logran al mismo tiempo contar con la posibilidad de administrar, para la mejor toma de decisiones, el valor agregado es indudable.

Durante la presentación de la nueva solución Dell EMC Integrated Data Protection Appliance (IDPA) DP4400 diseñada para las medianas empresas, Carlos Patiño, director senior de la división de Latinoamérica de Soluciones de Protección de Datos de Dell EMC señaló que “la evolución de los acercamientos a la seguridad de la información hace ver que es fundamental una infraestructura moderna para generar nuevas aplicaciones, mejoras, actualizaciones y así asegurar la operación de la empresa y la información que necesita para generar negocio”.

Por su parte, Alfredo Taborga, DPS gerente de Ventas para México, Nola y región Andina de Dell EMC, compartió que “hay ejemplos muy claros de la transformación digital y no sólo en el sector financiero y de retail, las áreas de tecnología ya no son solamente un proveedor en sus empresas, ahora pueden llegar a ser el negocio mismo. Se ha visto mucho más en relevante la labor de los especialistas en tecnología. Así, hablamos de un datacenter en el que no se comprometa la integridad del performance ni de la data que contiene”.

“IDPA DP4400 es un dispositivo de protección de datos convergente en una plataforma densa de 2U que cuenta con la tecnología de los servidores PowerEdge de la 14va generación. La integración con las herramientas nativas de VMware, SQL Server Management Studio y Oracle RMAN permite a los administradores de aplicaciones aprovechar las funciones de protección dentro de interfaces de usuario familiares”.

Para Carlos Patiño, lo que ha sido más importante es proveer “una analítica que promueva un círculo virtuoso de innovación a través de la medición de la efectividad de áreas de mejora. Los datos son el componente fundamental de la transformación digital en las empresas, y es importante balancear las señales de la obsolescencia contra el poder del rendimiento y la eficiencia. El dispositivo elimina la necesidad de gateway en la nube, ya que hablamos de una API extensible para una administración simplificada: Pequeña y robusta plataforma que reduce el requisito de ancho de banda hasta en 98%. Escalabilidad simple y elegante”.

Justo para las empresas medianas, cuyas inversiones deben ser realizadas estratégicamente este dispositivo ofrece un valor y un costo total de propiedad excelentes (con un costo de protección de hasta 80% menos). Con ventanas de respaldo hasta dos veces más rápidas, hasta 20% más de capacidad en un dispositivo de 2U  y un promedio de tasa de deduplicación de 55:1: El menor costo de protección en comparación con los productos de su clase.

“Durante años, las medianas empresas no tuvieron a su alcance una solución integral de protección de datos con el tamaño y el precio adecuados para ellas”, finalizó Patiño. “Con IDPA DP4400 no tienen que dejar nada de lado. Estamos ofreciendo una solución de protección de datos convergente que es fácil de usar, pero muy poderosa, y además soporta los ecosistemas de aplicaciones más grandes y la expansión en la nube”.

Grupo Globalia y Paessler apuntalan monitoreo de red en sector turístico

Para la correcta operación, gestión de eventos, capacidad y despliegue de nuevos proyectos en todas las empresas del Grupo Globalia (un grupo turístico español con una facturación anual de más de 3,500 millones de euros y una plantilla superior a los 15 mil trabajadores), era necesario conocer el consumo actual y futuro de recursos de TI, por lo que se requirió monitorear toda la red. Además, se requería tener disponible el monitoreo 24×7. 

La compañía optó por la solución de PRTG 2500 y actualizaron en diciembre de 2017 a un PRTG XL1, lo que confirma su confianza en el Paessler.

La implementación del software de monitorización se hizo de manera proactiva por los directivos del grupo (16 forman el personal de TIC), quienes ya habían utilizado distintas herramientas opensource y de pago, sin embargo, no eran nada fáciles de usar. 

La plataforma de hardware sobre la que está montado el PRTG en las empresas de Globalia está basada en máquinas virtuales, tanto para el PRTG Core Server como las sondas remotas de PRTG. Han configurado 12,500 sensores para monitorear con PRTG Network Monitor, redes, servidores, dispositivos de almacenamiento, entornos virtualizados, bases de datos, aplicaciones, estado de copias de seguridad y KPI. Además de sondas remotas para la monitorización de redes externas para las sucursales y filiales. 

“Decidimos cambiar a la herramienta de Paessler por su facilidad de implantación, despliegue de la nueva monitorización y el uso por parte de personal no experto”, indicó Xisco Mateu, responsable del Departamento de IT de Networking y Seguridad, de Globalia. “Para esto hicimos una valoración completa de diferentes herramientas, tomando en cuenta su entorno, y análisis forense y de capacidad. El resultado de estos criterios nos dio la pauta para decidirnos por PRTG”.

Globalia utiliza una gran variedad de sensores a fin de monitorizar todos los elementos comentados anteriormente, además cuenta con servicios, aplicaciones y tareas de copia de seguridad con PRTG. Las interfaces de usuario PRTG que utilizan son: Web-Interface y Enterprise Console. El corporativo también adaptó el software a su entorno, con el desarrollo de una serie de scripts para la integración con Servicenow y la creación de determinados sensores personalizados.

“Globalia Sistemas es una empresa transversal que ofrece soporte IT a todas las empresas del grupo”, explicó Xisco Mateu. “El uso de PRTG también es transversal y permite tener una visión 360 de lo que está pasando en la infraestructura. PRTG nos ha permitido simplificar las operaciones sobre la infraestructura IT y mejorar los tiempos de respuesta a fin de asegurar los SLA acordados con nuestros clientes”.

La compañía española tiene implementado un Core Server PRTG y 5 sondas remotas, con las cuales monitorea los servidores y las aplicaciones, se trata de una monitorización híbrida de la infraestructura IT y servicios ubicados tanto en su data center como en servicios cloud. Toda la instalación de la solución de Paessler tardó únicamente tres meses.

Beneficios

“La utilización de PRTG ha ayudado a Globalia a resolver problemas y ha permitido reducir los costos operativos asociados a la monitorización y gestión de eventos del entorno de TI. Adicionalmente, nos ha permitido realizar estimaciones de crecimiento ajustadas, basadas en la gestión de la capacidad y tendencias de consumo”, aseguró Mateu.

La solución de Paessler le ha dado al Grupo la posibilidad de optimizar los recursos contratados con base en la demanda y la estacionalidad a fin de reducir los Opex del entorno. “De esta manera”, Mateu señaló, “nos permite tener un control en tiempo real del estado de nuestra plataforma, planificar futuros crecimientos y realizar análisis forense”.

El directivo considera que la característica o función de PRTG Network Monitor más importante es su facilidad de despliegue y uso, así como la cantidad de sensores predefinidos. Aun así, cuando el Grupo ha necesitado la asistencia personalizada de los ingenieros Paessler obtiene una respuesta satisfactoria mejor que otros proveedores de TI. Actualmente, Globalia trabaja en la creación automática de sensores con base en su ITSM