En Panamá: Congreso Latinoamericano de Banca Digital, Innovación y Tecnología

Este jueves y viernes, 12 y 13 de julio de 2018 se realizará el Segundo Congreso Latinoamericano de Banca Digital, Innovación y Tecnología en Ciudad de Panamá. En su segunda versión, se proyecta como uno de los eventos referentes en la región enfocado 100% a los retos de las entidades que prestan servicios financieros. El evento se llevará a cabo en Hotel The Bahia Grand Panamá, antes Trump International Hotel & Tower Panamá, en el que se abordarán las últimas tendencias desde diferentes ámbitos y con la participación de conferencistas nacionales e internacionales de la más alta calidad.

 “Tendremos casos de éxito en transformación digital en la prestación de servicios financieros, ciberseguridad, blockchain, criptomonedas, API’s, Fintech, Inteligencia artificial, entre otros. Todos estos temas serán tratados por medio de conferencias innovadoras y prácticas con el fin de que los asistentes tengan un panorama de la actualidad de estos temas en la región y en el mundo. Con la rápida evolución de la tecnología y una generación millenial y centennials exigiendo experiencias digitales, se hace indispensable generar espacios de generación de conocimiento, de networking y de debate que permita trazar caminos de los años venideros de la banca”, invitó Juan Carlos Arcila Espinosa, presidente del Congreso.

El evento contará con la vocería de destacados ejecutivos tales como, Alejandro Rico, Director de cuentas para la región de Centroamérica y el Caribe de Google, Miguel Caldentey, Socio de EY y responsable de la transformación tecnológica en Latam Norte, Alan Bukrinsky, Director Ejecutivo de Liveperson Latinoamérica, Jorge Iván Otálvaro, Vicepresidente de Servicios para los Clientes, Grupo Bancolombia,  Juan Pablo Jimenez, Director Comercial LATAM, VASCO, Markos Zachariadis, Profesor Asociado de Sistemas de Información, Universidad de Warwick, Inglaterra, Jorge Kuljis, CEO, Sintesis Bolivia, Daniel Navarro, CEO Nimmok, Jonathan Stahl, Experto en Blockchain y Fintech e Influencer, México, entre otros.

Inteligencia artificial, robótica, big data y analítica, openbanking, la necesidad de mejor servicio, innovación en los canales, ofertas más atractivas, seguridad en las transacciones, rapidez y comodidad, “Son muchas las variables que bancos y demás instituciones financieras deben revisar y por ello el Congreso es un espacio muy oportuno para abrir el debate y revisar para dónde debe ir la Banca, no sólo para complacer a su público Millennial, sino para no quedar rezagada en un mundo hiper conectado que no duerme y no da espera.” concluye el ejecutivo.

Hitachi Vantara aportando a la infraestructura transformadora

La transformación digital no se trata sólo de ser más eficiente en lo que normalmente hacemos, significa renovar nuestro enfoque. La transformación digital para el centro de datos es centrarse en los resultados del negocio a través de la información y las aplicaciones que respaldan al cliente. A las empresas no les importa qué infraestructura tienen o qué tienen que hacer para administrarla, siempre que reciban el servicio que esperan.

Lo anterior no pretende sugerir que la infraestructura no es importante. Por el contrario, necesita soportar un conjunto de plataformas y aplicaciones nuevas y cambiantes, y debe ser más ágil y flexible, aprovechando las últimas tecnologías para cumplir con los cambiantes requisitos comerciales. Los datos son el combustible que impulsa la transformación digital y, dado que los datos sobrevivirán a las aplicaciones que lo crearon y las tecnologías que lo almacena, la elección de la infraestructura de almacenamiento se vuelve clave.

En este contexto, Hitachi Vantara realizó el lanzamiento de varias adiciones y actualizaciones importantes a su porfolio de Data Center, “todas diseñadas para ayudar a nuestros clientes a aprovechar al máximo sus operaciones de TI. Esto incluye nuevas incorporaciones a la reconocida línea Hitachi Virtual Storage Platform (VSP), así como mejoras en su software de análisis y automatización mejorado mediante inteligencia artificial”, confirmó Marcelo Sales, director de Arquitectura y Preventas de Hitachi Vantara Latam.

Con la presentación de la única familia de almacenamiento de la industria con una garantía de disponibilidad de datos del 100% y software de automatización de TI e informática con inteligencia artificial integrada, Hitachi Vantara mejora su posición como líder en almacenamiento empresarial y amplia drásticamente su capacidad de ayudar a los clientes a modernizar sus centros de datos y avanzar hacia operaciones autónomas. “Estratégicamente, estas nuevas ofertas demuestran nuestro compromiso con la infraestructura para impulsar el valor del negocio”, agregó Sales.

Nuevos sistemas VSP

Hitachi Vantara presenta una nueva línea de sus reconocidos sistemas VSP, que tienen hasta tres veces más rendimiento en IOPS y un ROI superior. Los clientes de Hitachi ahora pueden ejecutar más cargas de trabajo más rápido desde un solo sistema, y eliminar los silos de datos gracias a un mejor soporte para la nube y los contenedores.

Los nuevos VSP funcionan con la próxima generación del Sistema Operativo de Virtualización de Almacenamiento Hitachi, SVOS RF, diseñado para escalar hasta 2.5x más, entregar 70% más IOPS por CPU para una mayor relación precio / rendimiento y deduplicar datos hasta 3.4 veces más rápido.

Inteligencia artificial liderando

Un área clave en la que los clientes están implementando nuevas iniciativas y los proveedores buscan diferenciarse, es la automatización de las operaciones del centro de datos. “Tenemos una posición de liderazgo por delante de la competencia gracias a importantes mejoras en nuestra cartera de software de operaciones de IA”, agregó el ejecutivo, que incluyen:

    Hitachi Infrastructure Analytics Advisor (HIAA).

    Hitachi Automation Director (HAD).

    Hitachi Data Instance Director (HDID).

HIAA ahora ofrece análisis predictivos con aprendizaje automático para determinar cuándo comprar nuevos recursos de centros de datos. Esto ayuda a las empresas a ahorrar dinero y mejorar la planificación del presupuesto. HIAA también se ha mejorado para solucionar problemas de TI cuatro veces más rápido mediante la resolución de fallas de prescripción y llamando a HAD para resolver automáticamente el problema, según las mejores prácticas.   

El software HAD se ha mejorado para facilitar la administración de servicios de TI (ITSM) y la configuración de protección de datos para que los equipos tengan más tiempo para concentrarse en la innovación. Esto incluye la automatización de la configuración de HDID y la integración con flujos de trabajo ITSM (por ejemplo, ServiceNow).  

El software HDID automatiza y orquesta una amplia gama de tecnologías de copia y movimiento de datos para ofrecer servicios de gestión de datos de copia empresarial, lo que facilita la creación y gestión de flujos de trabajo complejos basados en políticas de punta a punta. Además, para simplificar el proceso de compra, los nuevos sistemas VSP vienen con dos paquetes de software. Todos los sistemas tienen el paquete de software Foundation, que incluye SVOS RF, HDID actualizado y la mejor oferta de análisis en su clase, HIAA.

Con estos anuncios, Hitachi Vantara hace posible la modernización del centro de datos, “al ofrecer una infraestructura de datos ágil, protección de datos moderna y operaciones inteligentes”, finalizó Marcelo Sales.

Apoyo a empresas: Gosocket y las redes que facilitan y simplifican procesos

Las redes sociales se han convertido en parte esencial de la vida cotidiana de las personas, pues son un instrumento primordial para la convivencia moderna. El concepto, los beneficios y la conveniencia de las redes sociales han permeado incluso al ámbito de los negocios en el entorno de la nueva economía digital.

Las redes empresariales como Gosocket han surgido como una alternativa que brinda importantes beneficios a los negocios ya que, además de facilitar la interacción con otras empresas, proveedores y clientes, cuentan con una serie herramientas que simplifican procesos clave como la facturación electrónica y el factoraje para empresas de todos tamaños. De hecho, son las Micro, Pequeñas y Medianas Empresas (PYMES) quienes más se pueden beneficiar al interactuar con la comunidad empresarial local e internacional a través de las redes empresariales como Gosocket.

En otras palabras, las redes empresariales, a diferencia de las redes sociales tradicionales, tienen el objetivo de facilitar procesos corporativos y mejorar la productividad.

* Características de una red empresarial

Lo que busca una red social es maximizar la cantidad de personas que observan e interactúan con las publicaciones y mensajes que emiten los individuos o los grupos. En una red empresarial, el objetivo es mejorar y agilizar la comunicación y el intercambio de información en un ambiente completamente controlado y donde sólo pocas personas clave pueden tener acceso.

En el caso de Gosocket, la plataforma logra una integración de empresas mediante herramientas con tecnología de punta, como en el proceso de la facturación electrónica y el factoraje.

La plataforma facilita el intercambio de documentos electrónicos y ciclos financieros. De una manera sencilla y eficiente, los documentos (facturas) se pueden convertir en efectivo más rápidamente, lo cual brinda capital de trabajo a las empresas que ya no tienen que esperar hasta la fecha de vencimiento para recibir sus pagos.

En una red empresarial como Gosocket, la comunicación entre las partes es privada y segura. Por ejemplo, si se publica una factura electrónica, solo puede ser vista por el emisor y el receptor. Dentro de una corporación, solo podrán ver los documentos aquellos usuarios que estén autorizados para ello.

A diferencia de una red social, dentro de una red empresarial no se promocionan, publicitan o comercializan productos o servicios de las marcas.

Otra de las ventajas de una red como Gosocket es que la estandarización para el intercambio de documentos es provista por las administraciones tributarias de cada país, como el SAT en el caso de México. Así, además de cumplir con los requerimientos fiscales de cada nación, la red empresarial se puede aprovechar para fines de intercambio de capital entre las empresas y las entidades financieras.

Todo se realiza de manera 100% electrónica, incluso visualizando la potencialidad del Blockchain, eliminando a los intermediarios y descentralizando la gestión.

* Seguridad en los procesos

Las redes sociales tradicionales ponen la seguridad de la información en manos del usuario. Éste debe estar al tanto de qué comparte y qué medidas de protección elige. Por el contrario, una red social empresarial como Gosocket, garantiza la seguridad de la información a través de mecanismos implementados de forma automática, lo que permite a las empresas enfocarse en crecer su negocio con la confianza de tener el respaldo de todo el equipo de la red empresarial.

Por ejemplo, Gosocket se conecta con entidades gubernamentales, como las autoridades tributarias, lo cual garantiza que cumple con requisitos estrictos y la normativa de los países. Otro punto importante es la plataforma tecnológica en la cual está desarrollada, ya que corre sobre la solución Azure, de Microsoft, que cuenta con mecanismos de seguridad de clase mundial.

Además, cuenta con componentes de seguridad propios, como la encriptación de la información. Asimismo, aplica otros protocolos de seguridad, como la validación de los datos para la activación de una empresa o usuario. Esto asegura que quienes acceden a la información son quienes realmente están autorizados para hacerlo.

A todas estas medidas se suman certificaciones bajo normativas internacionales como ISO:27001, entre otras. La administración de la información de los usuarios se lleva a cabo de manera transparente, observado siempre los protocolos más altos de seguridad.

* Integración regional, procesos sencillos y de valor agregado

En resumen, la red empresarial Gosocket permite recibir, archivar y resguardar facturas electrónicas de forma eficiente y, además, ayuda a optimizar los procesos de cobranza y mejorar el manejo de pedidos y entregas, entre otras características que son de gran beneficio para las empresas de todos tamaños, especialmente las PyME.

Incluso, los usuarios pueden encontrar ofertas de financiamiento y realizar negocios locales, regionales, nacionales e internacionales con cientos de negocios en países como Chile, Brasil, Ecuador, Costa Rica, México, Perú y Colombia.

Bajo el mar, el vanguardista Proyecto Natick de Microsoft

Microsoft está aprovechando la tecnología de submarinos y trabajando con pioneros en energía marina para la segunda fase de su lanzamiento lunar para desarrollar centros de datos subacuáticos autosuficientes que puedan entregar servicios en la nube tan rápidos como el rayo a las ciudades costeras. Un prototipo experimental, de tamaño de contenedor de envío, está procesando cargas de trabajo en el lecho marino cerca de las Islas Orcadas de Escocia.

El despliegue del centro de datos de las Islas del Norte en el Centro Europeo de Energía Marina marca un hito en el Proyecto Natick de Microsoft, un esfuerzo de investigación de varios años para investigar la fabricación y operación de unidades de centros de datos preempaquetados ambientalmente sostenibles que se pueden pedir a medida, desplegar rápidamente y dejar operar luces en el fondo del mar durante años.

“Esa es una serie de demandas locas que hacer”, dijo Peter Lee, vicepresidente corporativo de Microsoft AI and Research, quien lidera el grupo New Experiences and Technologies, o NExT. “Natick está tratando de llegar allí”.

El grupo de Lee persigue lo que el CEO de Microsoft, Satya Nadella, ha llamado “moonshots relevantes” con el potencial de transformar el núcleo del negocio de Microsoft y la industria de la tecnología informática. Project Natick es una idea lista para usar que se adapta al crecimiento exponencial de la demanda de infraestructura de computación en la nube cerca de los centros de población.

Más de la mitad de la población mundial vive a unas 120 millas de la costa. Al colocar los centros de datos en masas de agua cerca de las ciudades costeras, los datos tendrían poca distancia para llegar a las comunidades costeras, lo que permitiría una navegación web rápida y fluida, transmisión de video y juegos, así como experiencias auténticas para las tecnologías impulsadas por inteligencia artificial.

“Para una verdadera entrega de inteligencia artificial, en realidad hoy dependemos de la nube”, dijo Lee. “Si podemos estar a un salto de internet de todos, entonces no solo beneficia a nuestros productos, sino también a los productos que nuestros clientes atienden”.

De Francia a Escocia

El data center de las Islas del Norte de 40 pies de largo del Project Natick está cargado con 12 bastidores que contienen un total de 864 servidores y la infraestructura del sistema de enfriamiento asociado. El centro de datos se ensambló y probó en Francia y se envió en un camión de plataforma a Escocia, donde fue conectado a una base triangular llena de balasto para su despliegue en el fondo marino.

El día del despliegue, los vientos fueron tranquilos y los mares quedaron planos bajo una gruesa capa de niebla. “Para nosotros, fue un clima perfecto”, dijo Ben Cutler, gerente de proyecto en el grupo de proyectos especiales dentro de la organización de investigación de Microsoft que dirige el equipo de Project Natick.

El centro de datos fue remolcado al mar parcialmente sumergido y acunado por cabrestantes y grúas entre los pontones de una lancha a modo de catamarán industrial. En el sitio de despliegue, un vehículo operado por control remoto recuperó un cable que contenía la fibra óptica y el cableado de alimentación del lecho marino y lo llevó a la superficie donde fue revisado y conectado al centro de datos, y al centro de datos fue encendido.

La tarea más compleja del día fue la bajada del centro de datos y del cable de 117 pies hasta el suelo marino de la losa de roca. La tripulación marina utilizó 10 tornos, una grúa, una barcaza de pórtico y un vehículo operado por control remoto que acompañó al centro de datos en su viaje.

“El momento más feliz fue cuando el centro de datos finalmente se deslizó por debajo de la superficie en su lento y cuidadosamente programado viaje”, dijo Cutler. Una vez que el centro de datos llegó al lecho marino, se soltaron los grilletes, se llevaron los cables del cabrestante a la superficie y se pasó el control operacional de las Islas del Norte a la estación costera.

Todo lo aprendido a partir de la implementación – y las operaciones durante el próximo año y la recuperación final – permitirá a los investigadores medir sus expectativas frente a la realidad de operar centros de datos subacuáticos en el mundo real.

Desarrollado por energía renovable

Las Islas del Norte es un capítulo de la historia continua de Project Natick, que cuenta una historia sobre si es posible utilizar la cadena de suministro logística existente para enviar y desplegar rápidamente centros de datos modulares en cualquier parte del mundo, incluso en los lugares más difíciles del mar.

“Sabemos que si podemos poner algo aquí y sobrevive, somos buenos para casi cualquier lugar que queremos ir”, dijo Cutler.

El Centro Europeo de Energía Marina es un sitio de prueba para turbinas de marea experimentales y convertidores de energía de las olas que generan electricidad a partir del movimiento del agua de mar. Las corrientes de marea viajan hasta nueve millas por hora con la intensidad máxima y la superficie del mar se agita regularmente con olas de 10 pies que azotan hasta más de 60 pies en condiciones tormentosas.

En tierra, las turbinas eólicas brotan de los campos ondulantes de los agricultores y paneles solares que adornan techos de casas centenarias, generando electricidad más que suficiente para abastecer a los 10.000 residentes de la isla con energía 100% renovable. Un cable de la red de la Isla Orkney envía electricidad al centro de datos, que requiere poco menos de un cuarto de megavatio de potencia cuando funciona a plena capacidad.

La colocación con energía renovable marina es un paso hacia la realización de la visión de Microsoft de los centros de datos con su propio suministro de energía sostenible, explicó Christian Belady, gerente general de estrategia y arquitectura de infraestructura en la nube en la división de nube y empresas de Microsoft.

Los centros de datos autosuficientes de energía, señaló, podrían implementarse en cualquier lugar al alcance de una tubería de datos, llevando servicios en la nube Azure, por ejemplo, a regiones del mundo con electricidad poco confiable y eliminando la necesidad de costosos generadores de respaldo en caso de red eléctrica fallas.

“Nuestra visión es poder implementar computación rápidamente en cualquier lugar del planeta según lo necesiten nuestros clientes”, dijo Belady, quien ha defendido investigaciones que exploran el matrimonio de los centros de datos y la generación de energía para simplificar y acelerar la construcción de la infraestructura de computación en la nube.

La columna vertebral de internet

Los centros de datos son la columna vertebral de Internet, las nubes físicas de la computación en la nube donde los clientes aprovechan las economías de escala para almacenar y procesar datos de forma segura, entrenar modelos de aprendizaje automático y ejecutar algoritmos de inteligencia artificial.

La demanda de recursos de centros de datos en la industria informática está creciendo exponencialmente a medida que las empresas cambian cada vez más sus redes y necesidades informáticas a la nube, y proliferan los dispositivos inteligentes conectados a Internet que van desde teléfonos inteligentes hasta robots.

“Cuando estás en este tipo de curva de crecimiento exponencial, te dice que la mayoría de los centros de datos que construiremos nunca los hemos construido aún”, dijo Cutler, subrayando la necesidad de innovación en la carrera para construir lo que es convirtiéndose rápidamente en una pieza fundamental de la infraestructura del siglo XXI.

El concepto de centro de datos subacuáticos se presentó originalmente en un libro blanco preparado para un evento de Microsoft llamado ThinkWeek que alienta a los empleados a compartir ideas listas para usar. El grupo de Lee estaba intrigado. Apenas 12 meses después de lanzar Project Natick en julio de 2014, el equipo desplegó un prototipo de prueba de concepto construido en laboratorio en aguas tranquilas y poco profundas frente a California.

El buque de prueba de concepto operó durante 105 días. Alentados por los resultados y el posible impacto de la industria, el equipo de Project Natick siguió adelante con el diseño, la fabricación y la prueba del módulo de escala completa desplegado en Escocia. Cutler dijo que la última versión está diseñada para permanecer en funcionamiento sin mantenimiento por hasta cinco años.

Cómo elegir el rack ideal para instalar tu infraestructura TI

Seleccionar el sistema de rack adecuado para instalar los equipos electrónicos, informáticos y de comunicaciones en las salas de servidores y centros de datos de las empresas, no sólo protege y organiza los dispositivos de TI, también optimiza el flujo de aire a través de los mismos a fin de lograr significativos ahorros de energía eléctrica.

De acuerdo a Miguel Monterrosas, director de Soporte Técnico de Tripp Lite México, el gabinete SmartRack SR42UB es uno de los equipos más funcionales para instalar casi en cualquier entorno de TI de las PYMES y corporativos. Este equipo optimiza espacio y facilita la administración y mantenimiento de los dispositivos, ya que ofrece múltiples opciones para organizar los cables sin tener que usar herramientas, rieles opcionales de instalación ajustable, puertas con rendijas que permiten un eficiente flujo de aire, así como una base que permite el montaje de unidades de distribución de energía PDU´s.

Asimismo, estas son las recomendaciones para escoger el sistema de rack adecuado para la configuración de TI, de acuerdo a los expertos de Tripp Lite.

  1. Determinar cuántas unidades de espacio se necesitan.

A fin de calcular el tamaño de rack que se requiere se debe considerar las dimensiones de cada dispositivo que instalarás, estos pueden ser Switches de red, servidores, conmutadores, enrutadores de comunicaciones, sistemas UPS, KVMs y sistemas de audio/video, entre otros; recuerda prever las necesidades futuras de crecimiento.

Una unidad “U” estándar de rack, normalmente mide 44.45mm y la mayoría de equipos TI pueden ocupar desde1U a 9U de espacio. Es importante considerar que los racks de 42U son los que comúnmente se utilizan en el centro de datos, porque aunque son de los sistemas más altos, pueden pasar completamente ensamblados a través de una puerta de tamaño estándar.

Cabe destacar que a fin de cubrir las necesidades específicas del centro de datos de cada empresa, Tripp Lite cuenta con sistemas de racks que ofrecen desde 5U a 48U de espacio, extremadamente fáciles de armar.

  1. Definir si se necesita implementar sistemas de rack de marco abierto o de gabinete.

Gabinete de rack con paneles laterales y puertas con cerradura: Se recomienda para garantizar la operación y seguridad de la infraestructura TI, cuando la sala o centro de datos se encuentra instalado en un lugar concurrido.

Rack de marco abierto: cuestan menos que los gabinetes cerrados, reducen los costos de enfriamiento porque permiten circular mejor el aire y son ideales para instalarse en una sala o centro de datos que no requieren seguridad física o que tienen acceso restringido para el personal del área de TI.

  1. Se debe considerar el espacio con el que se cuenta.

Racks para instalación en pared: Son recomendables para habilitar zonas con poco espacio o que no fueron diseñadas para instalar equipo de TI, como bodegas y cuentan con un soporte para pared abisagrado diseñado para fijarse en la pared.

Racks para piso: Además de utilizarse en salas que tienen espacios más amplios, permiten la integración de aplicaciones de servidores de mayor densidad.

  1. Determinar el ancho y la profundidad que necesitan los equipos:

Aunque el ancho estándar de rack mide 61 cm existen modelos más anchos de racks que cubren necesidades específicas de instalación.

Modelos extra anchos de rack: Proporcionan espacio adicional para instalar PDUs (Unidades de Distribución de Energía) y cableado, mejorando el flujo de aire para aumentar la eficiencia de enfriamiento.

Modelos de poca profundidad: Son ideales para implementar KVMs, paneles de parcheo poco profundos, así como aplicaciones de telecomunicaciones.

Modelos extra profundos: Están diseñados para optimizar las aplicaciones de alta densidad, incluyendo sistemas UPS y otros equipos con componentes Hot-Swap.

  1. Sistemas de rack para zona propensa a terremotos:

Es fundamental utilizar un rack que cumpla con las especificaciones para la Zona Sísmica 4 en caso de que tu infraestructura TI experimente movimientos y vibraciones bruscas y severas en vehículos; así como ambientes de trabajo rigurosos.

  1. Empresas pequeñas que comparten el almacenamiento de equipos TI:

Se recomienda usar racks de “Co-location” ya que tienen compartimientos divididos con puertas separadas para permitir el acceso seguro a los usuarios adecuados.

  1. Empresas e instituciones financieras que requieren resguardar información valiosa y delicada, como datos de tarjetas de crédito:

Para estos casos es imprescindible utilizar racks que cumplan con los requerimientos para la compatibilidad con PCI DSS (Estándar para Seguridad de Datos de la Industria de Tarjetas de Pago).

D-Link lanza un switch amigable con el medio ambiente

Una vez más D-Link entrega respuesta a los requerimientos de los usuarios, incorporando la tecnología Gigabit Ethernet al segmento SOHO. El Switch Palm-Size de 8 puertos NWay de 10/100/1000Mbps de D-Link, es una excelente opción para pequeños grupos de trabajo, ya que permite conectar en forma simple cualquier puerta de 10Mbps, 100Mbps o 1000Mbps, satisfaciendo las demandas de tráfico de cualquier usuario.

El DGS-1008A es parte de la serie de dispositivos que hace uso de la tecnología ecológica de D-Link, la cual proporciona ahorros de energía, calor reducido y una mayor duración de vida del producto sin sacrificar el rendimiento o la funcionalidad.

El D-Link DGS-1008A crea una red ultra rápida para su oficina ya que sus puertos Gigabit Ethernet proporcionan conexiones por cable de alta velocidad hasta para ocho computadoras u otros dispositivos.

Este dispositivo ayuda a ahorrar energía automáticamente a través de varios métodos, por ejemplo, apaga automáticamente los puertos que no tienen ningún enlace, lo que permite que el switch ahorre una cantidad considerable de energía al reducir su uso en los puertos no utilizados. También ajusta la cantidad de energía suministrada a un puerto de acuerdo con la longitud del cable Ethernet conectado.

Este equipo está disponible en los canales mayoristas autorizados CVA, CT Y PCH Mayorista.

Más información sobre D-Link.

Kio Networks, Empresa Socialmente Responsable por séptimo año consecutivo

En el marco del XI Encuentro Latinoamericano de Empresas Socialmente Responsables, el Centro Mexicano para la Filantropía (Cemefi) junto con AliaRSE otorgaron, por séptimo año consecutivo, el Distintivo ESR 2018 a KIO Networks, empresa mexicana de servicios de Tecnologías de Información de misión crítica, líder en América Latina, por mantener altos estándares de calidad en todos sus procesos operativos y actividades empresariales.

Dicho distintivo acredita a las empresas ante sus colaboradores, inversionistas, clientes, autoridades y sociedad en general, como una organización comprometida, voluntaria y públicamente, con una gestión socialmente responsable y de mejora continua como parte de su cultura y estrategia de negocio.

“Año con año, nos comprometemos a elevar nuestro compromiso como organización con nuestros KIO y la sociedad en general. El ingrediente esencial para certificarnos ha sido la pasión por lo que hacemos, ya que no dejamos de elevar el nivel en todas las acciones que llevamos a cabo en KIO Networks. La disrupción, innovación y empatía con nuestro entorno, es parte fundamental desde nuestros inicios para mantenernos como una organización responsable con la comunidad”, comentó Elena Beguerisse, directora de Capital Humano de KIO Networks.

Calidad de vida en la empresa, Ética empresarial, Vinculación con la comunidad, Cuidado y Preservación del medioambiente son los cuatro objetivos de desarrollo empresarial que integran el índice RSE a considerar para la obtención de este distintivo. Desde su origen, la Responsabilidad Social Empresarial ha jugado un papel muy importante en la cultura organizacional de Kio Networks, algunas de las estrategias implementadas son:

Calidad de vida en la empresa: El talento es lo más importante para la empresa, y la calidad de vida de los colaboradores juega un papel importante para tener éxito en su gestión empresarial. Por lo anterior, constantemente se promueven diferentes actividades de integración y capacitación, con el objetivo de encontrar y fomentar su bienestar, mantener una actitud positiva y llevar la camiseta puesta dentro y fuera de la organización. Igualmente se impulsa la educación continua y se promueven planes de desarrollo profesional para su personal.

Ética empresarial: Al ser una empresa que resguarda todo tipo de información de sus clientes, Kio Networks ha desarrollado e implementado procesos y certificaciones enfocados al giro TI para el manejo de información, códigos para una gestión transparente logrando que sus colaboradores se conduzcan con apego a los valores que rigen cada una de las acciones dentro de la empresa como son:  Innovación, agilidad, flexibilidad, confianza y compromiso.

Vinculación con la comunidad: Fundación Kio Networks representa un papel muy importante en este eje al establecer alianzas estratégicas con otras organizaciones, entregando becas y donando aulas tecnológicas con el objetivo de brindar herramientas educativas en tecnología y de fomentar la inserción de los jóvenes de escasos recursos en el mundo digital.

Cuidado y preservación del medio ambiente: Kio Networks ha desarrollado diversos programas para ayudar al medio ambiente, tanto a nivel operativo como en el uso de energías renovables en  los Data Centers. De la misma forma, dentro de su cultura organizacional, fomenta el reciclaje de productos y objetos que ayuden al medio ambiente.

Elena Beguerisse, señaló que “hoy en día el mundo está transformándose gracias a las tecnologías disruptivas, están redefiniendo la expectativa de  los clientes, la manera de operar de las empresas y la forma de competir en el mercado. Sin embargo, es importante no olvidar que como parte de una comunidad, es nuestra responsabilidad ejercer una gestión socialmente responsable con nuestro entorno”.

Para Kio Networks, la obtención de este distintivo es un compromiso que promueve y mantiene una cultura organizacional basada en el respeto al entorno, sus clientes, colaboradores y sociedad en general.

Gemalto-Cifrado de datos, esencial para una protección de datos efectiva

Por Sergio Muñiz, Gemalto.

Cifrado: unos pocos lo entienden, y muchos quieren mantenerlo a una distancia segura. Sin embargo, el problema comienza cuando a los analistas y los coordinadores de TI de toda Latinoamérica no se les exige tener una calificación al respecto cuando aplican para un puesto

¿Qué es el cifrado? Una de las definiciones de los diccionarios dice que el cifrado es un conjunto de técnicas y de principios utilizados para cifrar escritura y hacerla incomprensible para aquellos que no tienen acceso a las convenciones combinadas.

Para ejemplificar este entendimiento, podemos usar los ejercicios que muchos de nuestros niños hacen en la escuela. A finales de este mes, seguí uno de los ejercicios de mi hija en su clase de lengua extranjera en la escuela primaria, que incluía varios elementos, cada uno con muchas letras mezcladas que formaban una palabra que había que descifrar y que había sido parte del proceso de aprendizaje en la clase anterior.

En el mundo del big data, en el que millones de datos son almacenados por empresas de todo el mundo, esa técnica de “mezcla de datos” se conoce como tokenización. La diferencia con lo que vi en el ejercicio de mi hija es que la tokenización se realiza con un método o una regla criptográfica, para transformar los datos originales en datos tokenizados. Además, los dígitos originales, en el caso de la palabra que se va a descifrar, no estarán necesariamente presentes en los datos tokenizados dentro de un sistema corporativo, como fue el caso en el ejercicio de mi hija. 

En un proceso de tokenización, los datos originales se cambian siguiendo esta regla, pero el formato, es decir, el número de dígitos de datos, no se cambia. Esta es una técnica altamente recomendada para manejar y almacenar números de tarjetas de crédito, contraseñas e identidades, como pasaportes y licencias de conducir.

Otra técnica incluso más compleja, que se requiere para una gran cantidad de información, convierte una secuencia de datos en un código reducido en comparación con los datos originales, es decir, el formato también cambiará. Esta complejidad adicional nos lleva al mundo de los datos cifrados.

Ningún ejecutivo que trabaje con big data o que pueda ser considerado responsable de la integridad de esos datos en una empresa, independientemente de si es miembro de la Junta Directiva, debe entender técnicamente cómo funcionan estos algoritmos criptográficos, pero sí debe comprender los conceptos que acabo de presentar para comprender mejor los riesgos de no utilizar estas técnicas y los beneficios que se obtienen cuando se implementan correctamente utilizando las mejores prácticas de protección de datos. 

Los datos tokenizados son más fáciles de implementar y no requieren ningún cambio en su base de datos, lo cual es extremadamente importante en el ámbito de la tecnología de la información de su empresa. Dado que el formato de los datos no cambia, la base de datos tampoco necesita cambiarse, lo que evita la necesidad de tiempo adicional y de profesionales más calificados que deberían utilizarse de manera muy optimizada.

Sin embargo, los datos cifrados requieren un conocimiento más profundo y profesionales más calificados para que los impactos en el rendimiento al almacenar y especialmente descifrar los datos para permitir su lectura por aquellos a los que se les concede acceso se minimicen, dado que la latencia, o el tiempo adicional, siempre ocurrirán en un proceso criptográfico. La evaluación y las pruebas adecuadas se deben realizar al diagnosticar qué datos, cuándo, cómo y dónde se deben cifrar. El cifrado puede ocurrir en muchos entornos, como bases de datos, aplicaciones o archivos.

Para un diagnóstico correcto, es necesario un profesional (o quizás más de uno) con experiencia en algoritmos criptográficos y con un conocimiento más profundo del tema. Sin embargo, sabemos que hay una falta de profesionales de ciberseguridad en el mundo, y cuando se trata de cifrado, no solo hay una escasez de profesionales, sino que también las ofertas de trabajo para puestos de seguridad de la información disponibles en LinkedIn, al menos en América Latina a fines de marzo, en su mayoría no requerían ningún tipo de experiencia ni de conocimientos de criptografía, y ni siquiera lo mencionaban como algo que preferentemente se debía tener. 

Estas posiciones son ofrecidas por compañías de una amplia gama de industrias, tales como Seguros, Aeroespacial, Bancos, Telecomunicaciones y Materiales de Construcción.

Eso muestra que el mercado latinoamericano debe ser evangelizado urgentemente. Pero, ¿por qué? Podría enumerar muchas razones asociadas con los conceptos criptográficos presentados al principio de este artículo, además de mencionar a la criptografía como una de las 14 políticas clave para las colaboraciones público-privadas recomendadas por el Foro Económico Mundial en su guía sobre seguridad cibernética presentada este año en Davos, pero restringiré mi respuesta a datos concretos y relevantes de un informe consolidado preparado por Gemalto semestralmente llamado “Índice de Nivel de Filtraciones” y que acaba de hacerse público con el análisis anual de los datos de 2017.

Una vez más, vemos un indicador que se ha repetido muchos años desde la consolidación de las filtraciones de datos en todo el mundo: en menos del 3% de las filtraciones, los datos estaban cifrados y, por lo tanto, no fueron expuestos. Así, en más del 95% de los casos, el daño a la imagen, la reputación, además de las pérdidas financieras y la caída del stock no pudieron evitarse ni mitigarse. Es por eso que la evangelización en criptografía en nuestro mercado es un tema urgente. Si en la mayoría de las filtraciones los datos confidenciales estuvieran cifrados y cumplieran con las buenas prácticas, los estafadores no tendrían acceso a los datos y, por lo tanto, no podrían monetizarlos. 

Además, en un supuesto intento de obtener los datos cifrados, los estafadores tendrían que invertir tiempo, recursos y dinero, lo que haría que el fraude no fuera rentable. Incluso si lograran descifrar los códigos del algoritmo criptográfico, con pocas posibilidades contra los algoritmos robustos que pueden utilizarse, el fraude ya no sería rentable para los ciberdelincuentes.

Solo por mencionar dos ejemplos recientes, la aplicación MyFitnessPal de Under Armour fue hackeada en marzo pasado y se filtraron usuarios y correos electrónicos de 150 millones de cuentas, además de contraseñas tokenizadas, y esa fue quizás la mayor ventaja de esa filtración. La mayoría de las contraseñas estaban tokenizadas con un método fuerte y robusto, y, por lo tanto, protegidas, y aparentemente, una parte más pequeña de las contraseñas usaba un método más débil que se podía descifrar fácilmente. En este caso, podemos observar algunas buenas prácticas, tales como:

– identificar datos confidenciales (contraseñas);

– tokenizar o cifrar esos mismos datos confidenciales con mecanismos robustos.

En la semana siguiente, un centro de negocios de Helsinki sufrió una filtración similar que expuso información de 130 mil ciudadanos finlandeses, incluidas las contraseñas que se almacenaron sin indexación y en formato de texto.

América Latina no es una excepción. Las filtraciones están comenzando a extenderse por toda la región y, siguiendo una tendencia en los últimos años, ya no son intentos restringidos de obtener credenciales financieras, sino grandes volúmenes de información que pueden intercambiarse en el mercado gris. Y como muchas empresas y varias industrias están experimentando actualmente una transformación digital donde el Big Data es uno de los pilares estratégicos, los altos ejecutivos también están empezando a tomar conciencia de la prioridad que se debe dar a la ciberseguridad.

Sin embargo, muchos ejecutivos con los que hablo a diario en la región me dicen que la seguridad de su big data es manejada por su proveedor de servicios en la nube, y si hay una filtración, será responsabilidad del proveedor. Sin embargo, olvidan que antes que al público, sus clientes, el mercado y sus inversores, una filtración afectará inicialmente a su negocio y sus acciones. Si hay pérdidas financieras, inicialmente se impondrán únicamente sobre la compañía que sufrió la filtración. La responsabilidad del proveedor dependerá de las condiciones contractuales, el alcance acordado entre las partes e, incluso con una transferencia total de penalizaciones al proveedor de servicios en la nube, en lo cual particularmente no creo en la mayoría de los casos, su empresa seguirá siendo la más afectada antes que las diferentes partes interesadas mencionadas.

Por lo tanto, la visión de que su proveedor es responsable es particularmente engañosa porque usted espera que sus datos estén seguros en la nube sin siquiera discutir el cifrado con el proveedor, ya que no existe una cultura en torno a esa técnica en nuestros países, e incluso si esta discusión ha tenido lugar, la decisión más frecuente de mantener las claves en el mismo entorno donde se encuentran los datos infringe una de las mejores prácticas de protección de datos:

– verificar si los algoritmos criptográficos utilizados en sus datos están certificados por organismos internacionales,

– mantener sus claves criptográficas en un entorno completamente segregado de donde almacena su información cifrada, ya sea que esté en manos de terceros o en sus propios sistemas, archivos o bases de datos.

Esta buena práctica se ha expandido felizmente por todo el mundo, aunque muy tímidamente en América Latina, y tiene un nombre: BYOK (traiga sus propias claves) en analogía a BYOD (traiga su propio dispositivo), utilizado en las telecomunicaciones desde hace algunos años.

En última instancia, tenemos muchos indicadores positivos, y el uso y el interés por el BYOK es uno de ellos, pero todavía hay un largo camino por recorrer en la región. En una encuesta reciente a 1293 CEO de todo el mundo, PwC muestra que las amenazas cibernéticas se encuentran entre las cinco principales preocupaciones de los CEO. Sin embargo, al presentar la segmentación de esta investigación por región y analizar el resultado en América Latina, este tema no se encuentra entre las diez preocupaciones principales de los CEO, lo que demuestra mi visión basada en las conversaciones que tuve con muchos ejecutivos de la región.

En otra encuesta llevada a cabo por el Instituto Ponemon, vemos que aunque el cifrado de datos ha sido cada vez más representativo en empresas de todo el mundo, a pesar de la tendencia creciente presentada por el Instituto, dos países de la región que figuran en el informe, Brasil y México, se encuentran entre aquellos de menor adopción de una estrategia de cifrado en sus políticas corporativas de ciberseguridad.

En resumen: Somos responsables de promover una estrategia que sea apropiada para la región y proporcionar un conocimiento más amplio de las mejores prácticas de protección de datos, incluidos el cifrado de datos y la administración optimizada y centralizada de las claves criptográficas.

Plan de Gestión de la Continuidad del Negocio

Por Fausto Escobar, director general de HD México.

Primero, definamos que es un Plan de Continuidad del Negocio (BCP, por sus siglas en inglés), el cual se define como un plan logístico para la práctica de cómo una organización debe recuperar y restaurar sus funciones críticas parcialmente o totalmente interrumpidas dentro de un tiempo determinado después de una interrupción no deseada.

En el ramo tecnológico, se trata de un esquema de planeación de recuperación y restauración a los servicios y funciones críticas posteriores a una incidencia que ponga en riesgo los procesos del negocio, dentro de un tiempo determinado.

Una de las prácticas de mayor relevancia para prevenir de cualquier incidente a la estructura empresarial es el respaldo de toda la información, y la buena noticia es que puede realizarse en sitio o bien, en la nube, lo recomendable es que sea de ambas formas, ya que ante cualquier desastre natural o algún incidente de usuario, será mucho más sencillo tener acceso a la información del negocio, como si no hubiera pasado nada.

Otra práctica es que exista un plan de la Gestión de la Continuidad del Negocio (BCM, por sus siglas en Inglés), y que una persona sea quien se encargue del mismo, para ello deberá conocer algunas regulaciones que obligan a las empresas a contar con un BCM, la más conocida es ISO 22301, estándar internacional para la continuidad del negocio y la define como la “capacidad (de una organización) de continuar la prestación de productos o servicios en los niveles predefinidos aceptables tras incidentes de interrupción de la actividad”.

Algunas empresas cuando sufren un incidente que no pueden controlar deben cerrar, pero eso ya no será necesario si se implementan buenas prácticas para evitar la pérdida de la información y la continuidad del negocio, y tampoco tendrán que invertir en conseguir la ISO 22301.

A continuación comparto algunos pasos básicos para contar con un BCM:

  • Identifica y ordena los diferentes incidentes que pudieran interrumpir la actividad de la empresa. Es importante que tomes en cuenta factores internos y externos. Recabar información de las diferentes áreas ayudará a tener un mayor panorama de las probables incidencias.
  • Realizar análisis del impacto de las incidencias, qué áreas podrían ser las más afectadas y seleccionar la información sensible a respaldar, y en caso de sufrir algún incidente, medir cuantos días puede sobrevivir la empresa, de acuerdo a algunos expertos, se puede determinar una escala de 1 a 4 donde 1= impacto crítico en las actividades operativas o pérdida fiscal, y 4= sin impacto a corto plazo. Si se multiplica el impacto por los días de supervivencia, se pude ver cuáles son las funciones más críticas. Al principio de la tabla quedarán las funciones con un impacto mayor y con sólo un día de supervivencia.
  • Crear un plan de respuesta y recuperación. Deberás seleccionar herramientas como Backup Everything que ofrecen respaldo en la nube y Ultrabac para la recuperación ante desastre. Lo importante es elegir una herramienta que cubra 2 objetivos fundamentales: Integridad y disponibilidad.
  • Probar el plan y refinar el análisis. Se recomienda probar el plan al menos DOS veces al año. De acuerdo a expertos, esto permite sacar mayor provecho a la inversión en la creación del plan, y no sólo te permite encontrar fallas y dar cuenta de los cambios corporativos con el transcurso del tiempo, sino que también causa una buena impresión en la gerencia.

Televisión y audio restringidos en 2017

Por Radamés Camargo | The Competitive Intelligence Unit

Los Servicios de Televisión y Audio Restringidos (STAR) se definen en la Ley Federal de Telecomunicaciones y Radiodifusión (LFTR) como aquellos de “telecomunicaciones de audio o de audio y video asociados que se presta[n] a suscriptores, a través de redes públicas de telecomunicaciones, mediante contrato y el pago periódico de una cantidad preestablecida”.

A partir de ello, en el mercado de STAR compiten tres plataformas de provisión de contenidos de video de pago mensual, a saber: la televisión restringida vía satélite, aquella transmitida por cable y otras tecnologías (e.g. microondas) y los servicios de video bajo demanda por internet u Over the Top (OTT).

Este mercado se caracteriza por su acelerado crecimiento en ingresos y dinámica al alza en su contratación, atribuible a la marcada preferencia por el consumo de contenidos audiovisuales, especialmente de aquellos transmitidos a partir de plataformas bajo demanda y multiplataforma (Over-The-Top, OTT), al empaquetamiento con otros servicios (telefonía, internet, plataformas de SVOD y TV Everywhere) y al lanzamiento de ofertas asequibles en términos de precios para los hogares.

El mercado en suscripciones

Al finalizar 2017, el mercado de STAR contabiliza 27.4 millones de suscripciones, equivalente a un crecimiento anual de 3.3%. El segmento de mayor crecimiento es el de OTT, con 7.7 millones de suscripciones,15.6% más que en 2016, mientras que el segmento satelital (10.7 millones) registró una caída de 4.2% ante la disolución del alza transitoria que tuvo lugar por la transición a la Televisión Digital Terrestre en 2016. Aquel de cable y otras tecnologías (9.0 millones) registró un aumento de 3.5% en una fase de maduración intermedia con tasas de crecimiento positivas pero menores o constantes.

Servicios de Televisión y Audio Restringidos: Suscripciones, 2017
(Millones por plataforma)
Fuente: The Competitive Intelligence Unit

En términos de ingresos, el mercado suma $26,082 millones de pesos durante el cuarto trimestre de 2017, 11.4% más en el comparativo interanual. En su distribución destaca que la ponderación de los servicios OTT (3,314 millones de pesos) en el total de ingresos apenas es igual a 12.7%, mientras que en el caso de la TV satelital es de 28.4 y 58.9% en el de la TV por cable.

Ello es atribuible a que el pago mensual por la suscripción a un servicio OTT resulta más asequible incluso que los paquetes básicos de prepago de TV por satélite, y más aún al ser prorrateado entre el número de usuarios de la suscripción. En números, en promedio el gasto mensual por una cuenta de OTT es de $140 pesos, mientras que el precio promedio de un paquete básico es de $202 pesos al mes.

En términos de ingresos, el mercado suma $26,082 millones de pesos durante el cuarto trimestre de 2017, 11.4% más en el comparativo interanual. En su distribución destaca que la ponderación de los servicios OTT ($3,314 millones de pesos) en el total de ingresos apenas es igual a 12.7%, mientras que en el caso de la TV satelital es de 28.4% y 58.9% en el de la TV por cable.

Ello es atribuible a que el pago mensual por la suscripción a un servicio OTT resulta más asequible incluso que los paquetes básicos de prepago de TV por satélite, y más aún al ser prorrateado entre el número de usuarios de la suscripción. En números, en promedio el gasto mensual por una cuenta de OTT es de $140 pesos, mientras que el precio promedio de un paquete básico es de $202 pesos al mes.

Servicios Televisión y Audio Restringidos: Ingresos, 2017
(Millones de pesos por plataforma)
Fuente: The Competitive Intelligence Unit

Bajo este escenario dinámico y competitivo, la estrategia de los operadores de televisión restringida consiste en intentar nivelar el terreno de juego, al implementar ofertas convergentes de contenidos con plataformas de video bajo demanda multiplataforma que incorporan contenidos de principales generadores de contenidos.

Es así como se testifica una ‘guerra de contenidos’ para atraer al mayor volumen de audiencias a partir de contenidos originales/exclusivos o vía acuerdos estratégicos de transmisión que doten de valor agregado a las ofertas tradicionales o precedentes. Todo ello ha causado una dinámica al alza tanto en ingresos como en suscripciones al interior del mercado STAR.