Intel, próxima a considerar mercados millonarios en inteligencia artificial

Por Navin Shenoy, vicepresidente ejecutivo y gerente general del Grupo de Centros de Datos en Intel Corporation.

Durante la conferencia Data-Centric Innovation Summit de Intel, compartí nuestra estrategia para el futuro de la computación basada en datos, así como una visión expansiva del mercado potencial (TAM, por sus siglas en inglés), y detalles nuevos acerca de nuestro plan de desarrollo de productos. El aspecto central de nuestra estrategia es un profundo conocimiento tanto de los retos, como de las oportunidades más grandes que enfrentan nuestros clientes en la actualidad.

Como parte de mi función en la dirección de los negocios basados en datos de Intel, me reúno con los clientes y socios de todo el mundo. Aun cuando provienen de muchas industrias diferentes y enfrentan desafíos empresariales únicos, todos tienen algo en común: la necesidad de obtener más valor de las enormes cantidades de datos. 

Me parece asombroso que 90% de los datos del mundo hayan sido generados en los dos últimos años. Además, los analistas pronostican que para 2025 los datos crecerán exponencialmente 10 veces más y llegarán a los 163 zettabytes. Pero aún tenemos un largo camino que recorrer para aprovechar totalmente el poder de estos datos. Se puede decir que solo el uno por ciento se utiliza, procesa y se les da seguimiento. ¡Imaginen lo que podría pasar si pudiéramos provechar efectivamente más de estos datos a escala!

La intersección de datos y transporte es un ejemplo perfecto de lo anterior en acción. El potencial de supervivencia de la conducción autónoma es muy grande – muchas vidas podrían salvarse alrededor del mundo como resultado de un menor número de accidentes. Sin embargo, para lograrlo, se necesita una combinación de tecnologías que trabajen en conjunto – incluyendo todo: la visión por computadora, la computación en el borde, el mapeo, la nube y la inteligencia artificial (IA).

Lo anterior requiere, a su vez, un cambio importante en la manera en que nosotros como industria, vemos la computación y la tecnología basada en datos. Necesitamos considerar los datos de manera global, incluyendo cómo los movemos con mayor rapidez, cómo almacenamos una mayor cantidad y cómo procesamos todo desde la nube hasta el borde.

Implicaciones para la infraestructura

Este enfoque de extremo a extremo es un aspecto fundamental para la estrategia de Intel, y cuando lo vemos desde esta perspectiva – ayudando a los clientes a mover, almacenar y procesar datos – la oportunidad del mercado es enorme. De hecho, revisamos nuestra visión expansiva del mercado potencial de $160 mil millones de dólares en 2021 a $200 mil millones en 2022 para nuestros negocios basados en datos. Esta es la mayor oportunidad en la historia de la compañía.

Como parte de mi discurso inaugural en la conferencia, describí las inversiones que estamos haciendo a lo largo de una amplia cartera para maximizar esta oportunidad.

Muévete con mayor rapidez

La explosión de datos conlleva la necesidad de mover los datos a mayor velocidad, sobre todo dentro de los centros de datos de hiperescala. La conectividad y la red se han convertido en cuellos de botella para utilizar con mayor efectividad y liberar la informática de alto desempeño. Las innovaciones como la  fotónica de silicio de Intel, están diseñadas para eliminar esas barreras, utilizando nuestro talento único de integrar el láser en el silicio y, finalmente, brindar el costo más bajo y energía por bit y el más alto ancho de banda.

Asimismo, mi colega Alexis Bjorlin anunció que seguimos expandiendo nuestra cartera de conectividad con una nueva e innovadora línea de productos SmartNIC – cuyo nombre de código es Cascade Glacier, que se basa en las FPGA Intel® Arria® 10 y permite la optimización del desempeño de los sistemas basados en el procesador Intel Xeon. Los clientes ya la están probando y Cascade Glacier estará a la venta en el primer trimestre de 2019.

Almacena más

Para muchas aplicaciones que se ejecutan actualmente en los centros de datos, no sólo se trata de mover datos, sino también de almacenar datos de la forma más económica. Con ese propósito, nos hemos dado a la tarea de transformar por completo la jerarquía de memoria y de almacenamiento en el centro de datos.

Recientemente dimos a conocer más detalles acerca de la  memoria persistente Intel Optane DC, una clase totalmente nueva de innovación en memoria y en almacenamiento, que permite un gran nivel de memoria persistente entre  la DRAM y los SSD, sin dejar de ser rápida y asequible. Y ahora, compartimos una nueva métrica de desempeño que muestra que los sistemas basados en la memoria persistente Intel Optane DC pueden alcanzar un desempeño hasta 8 veces mejor en ciertas consultas analíticas que configuraciones que sólo se basan en la memoria DRAM.

Clientes como Google, CERN, Huawei, SAP y Tencent ya la consideran revolucionaria. Y hoy, empezamos a enviar las primeras unidades de la memoria persistente Optane DC. Yo personalmente le entregué la primera unidad a Bart Sano, vicepresidente de Plataformas de Google. Se espera que esté disponible en general para 2019, con la próxima generación de procesadores Intel Xeon.

Además, en la conferencia Flash Memory Summit, anunciamos los nuevos productos basados en  Intel® QLC 3D NAND, y demostramos la forma en que compañías como Tencent utilizan esta tecnología para liberar el valor de sus datos. 

Procesa todo

Mucho ha cambiado desde que introdujimos el primer procesador Intel Xeon hace 20 años, pero el apetito por el desempeño informático es más grande que nunca. Desde el lanzamiento de la plataforma Intel Xeon Scalable en julio pasado, hemos visto que la demanda sigue creciendo, y tengo el placer de decir que ya enviamos más de 2 millones de unidades en el segundo trimestre de 2018. Mejor aún, en las primeras dos semanas del tercer trimestre, enviamos 1 millón de unidades más.

Nuestras inversiones en la optimización de los procesadores Intel Xeon y las FPGA Intel para la inteligencia artificial también están dando resultados. En 2017, más de 1 mil millones de dólares en ingresos provinieron de clientes que ejecutaban inteligencia artificial en procesadores Intel Xeon en el centro de datos. Y continuamos mejorando el adiestramiento de la inteligencia artificial y el desempeño de la inferencia. En total, desde 2014, nuestro desempeño mejoró en más de 200 veces.

Lo que viene es igualmente emocionante para mí. Hoy dimos a conocer el plan de desarrollo de la próxima generación para la plataforma Intel Xeon:

·         Cascade Lake es un procesador Intel Xeon Scalable futuro, basado en tecnología de 14 nm que introducirá la memoria persistente Intel Optane DC y un conjunto de nuevas funciones de inteligencia artificial llamado Intel DL Boost. Este acelerador de IA integrado aumentará la velocidad de las cargas de trabajo de inferencia de aprendizaje profundo, con una velocidad esperada de reconocimiento de imágenes 11 veces mayor a la de los procesadores de la generación actual Intel Xeon Scalable cuando los lanzaron en julio de 2017. Los envíos de Cascade Lake están planeados para más adelante este año. 

·         Cooper Lake es un procesador Intel Xeon Scalable futuro que se basa en la tecnología de 14 nm. Cooper Lake introducirá una plataforma de nueva generación con importantes mejoras en el desempeño, nuevas funciones de entrada/salida, nuevas capacidades Intel® DL Boost (Bfloat16) que mejoran el desempeño del adiestramiento de la IA/aprendizaje profundo, e innovaciones adicionales de memoria persistente Intel Optane DC. Se espera hacer envíos de Cooper Lake en 2019.

·         Ice Lake es un procesador Intel Xeon Scalable futuro basado en tecnología de 10 nm, que comparte una plataforma común con Cooper Lake, y se planea como una pronta continuación que estará disponible para 2020.

Además de invertir en las tecnologías correctas, también estamos ofreciendo soluciones optimizadas –del hardware al software– para ayudar a que los clientes estén a la delantera de sus crecientes demandas de infraestructura. Por ejemplo, introdujimos tres nuevas soluciones Intel Select Solutions centradas en la IA, la cadena de bloques y  SAP Hana*, que se avocan a simplificar el desarrollo y acelerar la generación de valor para nuestros socios del ecosistema y clientes.

La oportunidad que nos espera

En resumen, entramos en una nueva era de computación basada en datos. La proliferación de la nube más allá de la hiperescala y en la red y en el extremo, la inminente transición a la tecnología 5G, y el crecimiento de la inteligencia artificial y la analítica, han producido un cambio profundo en el mercado, creando enormes cantidades de datos en su mayoría sin aprovechar.

Y cuando se le agrega el crecimiento en el poder de procesamiento, las innovaciones en conectividad, almacenamiento, memoria y algoritmos, terminamos con una forma completamente nueva de pensar sobre la infraestructura. Estoy emocionado por la enorme y rápida oportunidad basada en datos que nos espera ($200 mil millones de dólares para 2022).

Para ayudar a que nuestros clientes muevan, almacenen y procesen cantidades de datos gigantescas, tenemos planes de acción para ganar en las áreas de mayor crecimiento y tenemos una cartera sin igual para impulsar nuestro crecimiento –incluyendo productos líderes en desempeño y un amplio ecosistema que cubre todo el mercado basado en datos.

Cuando la gente me pregunta qué me gusta de trabajar en Intel, la respuesta es simple. Estamos inventando – y escalando– las tecnologías y soluciones que marcarán el inicio de una nueva era de la computación y ayudarán a resolver algunos de los mayores problemas de la sociedad. 

¿Cómo pueden los operadores móviles aprovechar al máximo la inteligencia artificial?

En los últimos años, la irrupción de la inteligencia artificial está abriendo un nuevo abanico de posibilidades tanto a organizaciones como a usuarios. Ante esta tendencia, las empresas y en concreto, los operadores de telecomunicaciones tienen un reto: utilizar la Inteligencia Artificial para conectar a sus usuarios y ofrecerles el contenido que estos desean, en el momento adecuado y a través del canal correcto. 

Nuance Communications explica cómo los operadores de telecomunicaciones pueden sacar provecho de la inteligencia artificial y las tecnologías de automatización inteligentes para optimizar sus ofertas.

● La oferta correcta en el momento adecuado contribuye a aumentar las ventas y a mejorar la satisfacción del cliente, ya que éste recibe lo que quiere y/o necesita cuando lo quiere y/o necesita. Usar la Inteligencia Artificial para ayudar a los usuarios a encontrar el video que quieren ver facilitará el aumento del consumo de contenidos bajo demanda, fidelizará al consumidor e incrementará el uso de datos. 

● Mejora la calidad de servicio y aumenta la satisfacción de los usuarios. Los Operadores de Telecomunicaciones están empleando la Inteligencia Artificial para ofrecer servicios personalizados con el objetivo de perfeccionar la experiencia de usuario. De esta forma, proporcionan recomendaciones sobre películas o programas de televisión basadas en la experiencia previa de sus clientes. Por ejemplo, Orange está empleando tecnología de voz Dragon TV para optimizar la experiencia de Orange TV a través de su aplicación móvil. De esta forma, los usuarios de Orange TV pueden encontrar programas, películas y otros contenidos simplemente hablando a la app, ya sea en su smartphone o tablet.

● Identifica proactivamente posibles fuentes de fraude. De acuerdo con un estudio de WeDo Technologies, sólo el 21% de los Operadores de Telecomunicaciones utiliza alguna forma de machine learning o Inteligencia Artificial para asegurar sus ingresos y evitar el fraude. A pesar de que esta práctica todavía no está muy extendida en algunas industrias, analizar el comportamiento de transacciones y dispositivos puede ser muy valioso para prevenir la actividad fraudulenta.

● Mantiene a los usuarios conectados con amigos o familiares, sin importar dónde estén, a través de la conversión de mensajes de voz a texto. El machine learning proporciona un servicio de reconocimiento de voz que permite a los usuarios leer sus mensajes de voz convertidos a texto y enviados en su dispositivo, sin necesidad de tener que escuchar el mensaje. Los usuarios pueden fácilmente leer los mensajes importantes y siempre tienen la opción de escucharlos posteriormente. Desde la pantalla de su dispositivo móvil, pueden enviar o reenviar mensajes de voz como mensajes de texto.

“Los proveedores de servicios de comunicación tienen la oportunidad de optimizar la experiencia de usuario de sus clientes gracias a su capacidad para gestionar la información generada por millones de interacciones, lo que les permite ofrecer el servicio que el usuario necesita, en el momento preciso y en el canal apropiado. Las nuevas mejoras introducidas por la inteligencia artificial unidas a una mayor interoperabilidad, están potenciando que la experiencia de usuario esté cada vez más personalizada”, señaló Andrés Alvargonzález, director de Marketing de Nuance.

La inteligencia artificial, en consecuencia, se presenta como un reto para los proveedores de servicios de comunicación, que han de hacer uso de la Inteligencia Artificial y el machine learning para conseguir ser más competitivos, elaborar mejores ofertas para sus clientes y optimizar la calidad de sus servicios

América Latina a la par de Europa y Estados Unidos en el uso de dispositivos móviles

HID Global continúa impulsando la adopción masiva del control de acceso móvil en América Latina a partir de las recientes implementaciones en distintos mercados verticales de la región. Lo anterior confirma la predicción hecha por HID Global a comienzos de este año en el sentido de que 2018 verá la aceleración de la adopción de esta modalidad de control de acceso.

La tecnología de control de acceso móvil de HID Global ha sido instalada con éxito en verticales de América Latina tales como educación secundaria, transporte, banca, energía y educación superior (entre otros), lo que demuestra la versatilidad y capacidad de la solución para adaptarse a los distintos entornos y exigencias.

“2017 fue el año en que el acceso móvil se generalizó y en 2018 la adopción se acelerará. La madurez alcanzada por las soluciones móviles y la integración con otros sistemas, junto con la capacidad de los dispositivos móviles de mejorar la comodidad del usuario, optimizar la eficiencia operativa y proporcionar mayor seguridad, impulsarán el crecimiento acelerado del acceso móvil y su adopción general”, aseguró Gustavo Gassmann, director de Control de Acceso para HID Global en Latinoamérica.

Las lectoras compatibles con la tecnología móvil de las series iClass SE, las unidades multiClass SE, así como las credenciales virtuales Seos, fueron las soluciones elegidas en muchos de los casos con el fin de ofrecer a los usuarios nuevas formas de abrir puertas, con innovación (permite el acceso seguro usando los estándares de comunicación disponibles en los sistemas operativos iOS y Android), conveniencia (al permitir abrir las puertas con un toque o un gesto “Twist & Go”, combinando seguridad con conveniencia) y dinamismo (debido a su compatibilidad con las identificaciones móviles y las tarjetas ya existentes para una migración sin contratiempos a un estándar más seguro).

Por su parte, las credenciales virtuales Seos permiten el acceso físico mediante el uso de dispositivos móviles. Entre sus principales ventajas están su portabilidad (operan bajo un modelo probado que gestiona la transmisión de datos seguros de identificación hacia los dispositivos móviles) y facilidad de manejo (administración sin interrupciones del ciclo de vida de las identificaciones móviles). Seos permitió reforzar el tema de la vulnerabilidad, tan común en las organizaciones que aún tenían instaladas tecnologías obsoletas. 

“La emulación de tarjetas, el modo NFC más codiciado para el control de acceso móvil, permanece reservado exclusivamente a Apple Pay; esto deja a Bluetooth como el estándar de comunicación para soporte del acceso móvil en varias plataformas. Aun así, las organizaciones invertirán en lectores y otras infraestructuras que brinde soporte a la tecnología NFC y al Bluetooth de bajo consumo (BLE, por sus siglas en inglés) para estar listas a aprovechar las posibilidades futuras”, puntualizó Gustavo Gassmann.

Seguridad, telecom y digitalización doméstica, el hogar inteligente

Por Gagan Singh, SVP & GM Mobile, Avast.

Se espera que el número de dispositivos inteligentes del hogar alcancen los 38.5 billones en 2020, de acuerdo con Juniper Research. La cifra incluye todos los dispositivos, desde parlantes hasta lavarropas inteligentes, diseñados para hacer las vidas de esos hogares más sencillas. Dichos dispositivos inteligentes vienen desafortunadamente con un potencial de vulnerabilidad de seguridad que puede poner las casas y los datos de sus dueños en peligro, así como afectar negativamente sus negocios. Asegurar estos dispositivos conectados a Internet de las Cosas (IoT) es un desafío dado la diversidad de artefactos y sistemas con los que se comunica. 

Hay un punto central en los hogares para el control del flujo de los datos transmitidos por cualquier dispositivo conectado a él: ese punto neurálgico es el router de la casa. De acuerdo con una investigación conducida por IHS Markit, se espera que el porcentaje de puertas de entrada al hogar o routers proporcionados por proveedores de banda ancha crezca un 90 por ciento en 2019.  La colaboración entre los proveedores de banda ancha y los vendedores de sistemas de seguridad constituye, por ello, una poderosa relación que le devuelve el control a los consumidores y les permite mantener a salvo sus hogares y dispositivos inteligentes de una manera simple y eficiente.

Los riesgos que enfrentan los consumidores

Los atacantes pueden penetrar cualquier dispositivo inteligente a través de la red doméstica si su punto de acceso, el router, no está asegurado contra estas amenazas de intrusión, lo cual puede ocasionar una amplia variedad de ataques.

IoT es un ejemplo en el cual las debilidades en la ciberseguridad pueden abrir paso a amenazas a la seguridad física. Un buen ejemplo de ello son los dispositivos de IoT hackeados, que pueden informar a los atacantes si los dueños de casa están o no en ella, según el dispositivo que estén usando. Si el termostato de un hogar inteligente o sus luces están programados para comportarse de forma diferente por una semana o dos, los intrusos asimismo pueden asumir que los propietarios están de vacaciones o en el trabajo y, por ejemplo, robar esa casa vacía. Otra forma en la cual los criminales pueden aprovechar la información proporcionada por los dispositivos inteligentes para entrar en una casa es a través de Alexa de Amazon o el dispositivo Google Home. Los criminales pueden fácilmente ordenar a estos parlantes inteligentes que abran las puertas de la casa y, por ejemplo, si el bloqueo de la puerta de entrada está controlado por este dispositivo inteligente, los agresores pueden desbloquearlo y abrirla.

Un riesgo muchas veces menospreciado cuando se habla de dispositivos de IoT es la posibilidad de que se pueda filtrar información personal, así como el registro de los movimientos de los dispositivos. Es destacable cuánta información puede almacenar un dispositivo de IoT: las cámaras web pueden registrar todo cuando a lo que estén apuntando, los televisores inteligentes y asistentes personales pueden capturar el sonido y las luces inteligentes y termostatos pueden aportar pistas sobre si una familia está o no en casa.

Los hackers no necesitan hackear el servidor de una compañía para apoderarse de información, en cambio pueden ir directamente al dispositivo del usuario. Los motores de búsqueda de IoT, que son capaces de hacer listas de dispositivos vulnerables y que pueden ser aprovechados para intrusiones, están disponibles libremente en internet. Si un hacker consigue ingresar a todos o la mayoría de los dispositivos de IoT en la casa de alguna persona, será capaz de monitorear sus movimientos, escuchar sus conversaciones privadas y potencialmente atacar a esa persona o vender a otros la información que ha colectado, como los datos de su cuenta bancaria o de su tarjeta de crédito, para que se aprovechen de ella.

Los riesgos que los proveedores de telecomunicaciones y otros enfrentan

Una de las amenazas más comunes que actualmente apunta hacia los dispositivos de IoT pasa inadvertida por los consumidores, pero tiene un considerable impacto negativo en los proveedores de banda ancha y en otras compañías. La esclavización de los dispositivos inteligentes para que se comporten como bots en una botnet, permite a los cibercriminales usar dispositivos infectados para llevar adelante varios ataques, incluidos ataques de DDoS que ponen fuera de servicio a los servidores.

Los cribercriminales usan los ataques de DDoS para hacer que una red quede no disponible y para ello buscan abrumar a la máquina objeto de dicho ataque con un enorme número de solicitudes de acceso, enviadas desde múltiples dispositivos. Esto sobrecarga al computador objetivo, atascando su ancho de banda y luego volviendo imposibles las conexiones legítimas. Para el usuario, los ataques de DDoS pueden pasar fácilmente inadvertidas dado que corren en el background del computador. Sin embargo, pueden causar grandes daños a las compañías. Un ejemplo de ello es el botnet que se enfiló contra los servidores Dyn y puso fuera de línea a sitios tan populares como Twitter y Reddit en 2016.

Apenas unos pocos meses después del ataque de DDoS a Dyn, la compañía alemana de telecomunicaciones Deustche Telekom fue objeto de un ataque de DDoS. El ataque puso fuera de combate a enrutadores pertenecientes a 1.25 millones de usuarios e interrumpió su conexión a internet por varias horas.

Resolviendo el desafío de la amenaza a la seguridad de los dispositivos inteligentes

Los fabricantes de dispositivos están bajo presión para producir dispositivos inteligentes y sacarlos al mercado rápidamente y a un precio accesible. No ven la seguridad como una prioridad o no están muy familiarizados con ella, lo que implica que distribuyen dispositivos vulnerables y con una seguridad muy baja que con frecuencia no pueden ser actualizados por los consumidores. El fabricante de una tostadora, por ejemplo, quien ahora puede estar produciendo tostadoras inteligentes, nunca antes había tenido que pensar en asegurar sus artefactos de los hackers.

Agregar soluciones de seguridad como prioridad para los dispositivos inteligentes, como heladeras y termostatos es complejo. En virtud de la gran diversidad de dispositivos, los vendedores de soluciones de seguridad necesitan desarrollar una solución para cada plataforma. Más aún, los recursos de los dispositivos de IoT son limitados y esos recursos están programados para cumplir con una tarea específica. Añadir una solución de seguridad a dispositivos inteligentes puede potencialmente arruinar el desempeño del dispositivo y afectar negativamente la experiencia de usuario. Mientras más datos de los dispositivos inteligentes son transmitidos a la red, el nivel de protección de la red es la solución más sensible para la protección de los dispositivos de IoT.

El enfoque actual sobre cómo brindar seguridad a los dispositivos de IoT es más un enfoque de “hágalo usted mismo“que un abordaje estructurado -una brecha que está generando grandes oportunidades para los cibercriminales. Los consumidores, por ejemplo, pueden tomar medidas básicas para proteger sus dispositivos inteligentes, pero simplemente no hay suficientes opciones disponibles para darles una protección total en este momento. Adicionalmente, cuando se trata de implementar las opciones que figuran en los manuales de seguridad, con base en 30 años de experiencia en la industria de seguridad, sabemos que la mayoría de los usuarios son blandos al cumplir con los pasos básicos como actualizar el firmware o las contraseñas por defecto, si los usuarios eligen cumplirlos las medidas que pueden tomar son a menudo limitadas.

Las autoridades pueden hacer cumplir los estándares y leyes de la industria que los fabricantes aún deben cumplir, pero incluso si las leyes existen no son suficientes para proteger a los consumidores. Con la velocidad con la que evoluciona hoy la tecnología, es prácticamente imposible para las autoridades crear leyes con un sentido práctico.

Los proveedores de telecomunicaciones y quienes comercializan soluciones de seguridad son dos jugadores que desempeñan un rol importante en la seguridad de los artefactos conectados al IoT. Si trabajan en conjunto pueden resolver los retos del consumidor relativos a cómo proteger sus redes domésticas y sus dispositivos. Los proveedores de banda ancha se encuentran en una posición privilegiada para proporcionar seguridad dado que a menudo proveen el router, las redes que contienen los datos del usuario y realizan la conexión en los aparatos de uso diario de los usuarios. Además, tienen el poder para erigir una infraestructura y una red seguras, que le permitan al usuario confiar en la seguridad de su conexión.

Los proveedores de servicios de seguridad, por otro lado, pueden vigilar el flujo de datos a través de la red y usar tecnología de machine learning e inteligencia artificial para entender esos datos, identificar anomalías y bloquearlas. Las soluciones construidas con la tecnología de la Inteligencia Artificial pueden aprender constantemente del comportamiento típico y de los patrones de uso en los dispositivos inteligentes. Como resultado, las soluciones de seguridad pueden identificar a los ataques en el momento en el que ocurren y responder a ellos en tiempo real, cuando las anomalías ocurren en el tráfico de un hogar inteligente. La clave para hacer esto exitosamente recae en la big data, pues a mayor cantidad de datos e insights proveniente de su base de usuarios que tenga un proveedor de servicios de seguridad, mejores posibilidades tendrán sus soluciones de detectar amenazas nunca antes vistas.

Como los proveedores de telecomunicaciones trabajan juntos con quienes comercializan soluciones de seguridad, juntos pueden construir una relación de confianza con sus clientes y proporcionarles una plataforma de seguridad fundamental, construida en el router, que mantenga a los hogares conectados de forma segura y libres de ataques. Este tipo de soluciones les brinda a los suscriptores transparencia en la actividad de las redes domésticas, dándoles el control remoto de sus dispositivos caseros para, por ejemplo, permitirles apagar la estufa o el termostato. Se puede, incluso, incorporar funciones de control parental, que aseguren que los niños solo tengan acceso a contenido apropiado para ellos, al monitorear su comportamiento durante el uso de sus dispositivos móviles.

Con la cifra de dispositivos de IoT creciendo exponencialmente, a la par que aumenta la cifra de amenazas que los tienen en la mira, es imperativo que los proveedores de banda ancha y los comercializadores de soluciones de seguridad trabajen juntos para brindar a los consumidores soluciones simples.

BMC hace recomendaciones para navegar el mundo multi-cloud

De acuerdo con resultados de una encuesta de Gartner, los ingresos por servicios en la nube llegarían a 305.8 billones de dólares en 2018, lo cual representa un aumento de 17.5% contra 2017, y a medida que más empresas migran a procesos más digitalizados, sumado a la presión que los líderes actuales de TI sienten para tener un ambiente de nube acorde a sus necesidades, se confirma que los servicios en la nube se han vuelto más importantes.

 “Frente a este contexto, los líderes de TI requieren enfrentar nuevos retos acerca de seguridad, visibilidad, costo, desempeño, automatización y migración. Pero, ¿cómo pueden enfrentarse a estos retos si muchos tomadores de decisiones de TI no tienen las herramientas para obtener un panorama completo del ambiente multi-cloud o no saben lo que su empresa está gastando actualmente en la nube?”, indicó Ricardo Wolff, country director de BMC México.

 Tenga controlada la situación – mapeo de aplicaciones

De acuerdo con observaciones del ejecutivo de BMC, el mapeo de aplicaciones es una forma de proveer una visibilidad robusta sobre la parte de la infraestructura de TI que soporta a servicios particulares del negocio, como los distintos componentes de su ambiente multi-cloud. “En ese sentido, un mapa de aplicaciones hace posible monitorear y documentar los servicios del negocio. Más aún, permite al área de TI evaluar el impacto de cambios potenciales, configuraciones y verificar otras funciones para asegurar un óptimo soporte al negocio”, explica Wolff.

 Para BMC, las herramientas de mapeo de aplicaciones de descubrimiento automático pueden recolectar datos en infraestructura de red y servicios de nube y sus relaciones, para crear mapas de aplicaciones escalonados y robustos. “Por eso es que estableciendo relaciones entre los propietarios de las aplicaciones y gerentes de configuración, y extendiéndose a lo largo de servicios de nube, los mapas de aplicaciones realmente pueden avanzar el alineamiento TI-negocio y ayudan a mantener el ambiente de nube responsivo a las demandas del negocio”.

De ahí que cuando se trata de mapear un ambiente multi-cloud, Wolff recomienda empezar con una estrategia de “comienza en cualquier parte” (start anywhere) para permitir a los propietarios de las aplicaciones recibir una mejor experiencia al permitirles iniciar con lo que ya conocen, en vez de hacerlos descubrir qué constituye la “cima”. El mapeo “start anywhere” puede comenzar también desde múltiples puntos simultáneos, lo que significa que los equipos de TI pueden hacer frente a las aplicaciones mucho mejor, o cuando las distintas partes de una relación están perdidas y pueden mitigar la gestión de los retos que las herramientas estándar enfrentan en las complejas infraestructuras centradas en la nube.

La complejidad

Por otro lado, Ricardo Wolff señaló que una reciente encuesta de BMC encontró que 40% de los tomadores de decisiones de TI globales no saben cuánto gasta su empresa en servicios de nube. A esto se une el hecho de que el 78% de los tomadores de decisiones de TI están buscando maneras de integrar soluciones emergentes, como la inteligencia artificial en sus estrategias multi-cloud, y esto destaca una tendencia preocupante. ¿Cómo pueden las nuevas tecnologías ser implementadas en ambientes de nube si no hay visibilidad aparente de gastos y recursos?

 “Multi-cloud ha cambiado realmente el juego, por lo que la manera tradicional de ver la infraestructura de TI ya no funciona. Los líderes de TI deben considerar nuevas formas de gestionar ambientes multi-cloud para asegurar que están recibiendo los beneficios esperados de nubes públicas en términos de ahorros, optimización de desempeño automático e incremento de seguridad y gobernanza. Deben adaptar también su estrategia de gestión usando nuevas soluciones tecnológicas hecha para multi-cloud que aprovechen el ‘machine learning’ y la inteligencia artificial para reducir la complejidad”, explicó el directivo.

 Asegurando agilidad, cumplimiento, innovación y control de costos

El 44% de los tomadores de decisiones en la encuesta BMC-Gartner están de acuerdo en que adoptar multi-cloud es esencial para mantener la agilidad. “Esto se relaciona con evitar el bloqueo del proveedor, que es esencial para cualquier organización competitiva que quiera tener una presencia robusta en nubes alrededor del mundo”, dijo Wolff, quien agregó que el elemento de bloqueo se convertirá en un problema mayor para las organizaciones. “Por ejemplo, todo está muy bien si se tiene un acuerdo global con Amazon Web Services (AWS), pero cuando va a Brasil, ¿sería más fácil tal vez trabajar con un proveedor de nube brasileño competitivo que además garantice que los datos estén almacenados y gestionados bajo las leyes españolas? Las soluciones multi-cloud que no sean muy astringentes ayudarán a facilitar esta estrategia a los negocios globales”.

 “Comprendiendo los costos a lo largo de cualquier modelo de nube pública, privada o híbrida, es un elemento crítico para mantener la agilidad e incrementar la visión del negocio. Por eso es que la infraestructura multi-cloud más efectiva será aquella que combine una solución de gestión de costos que analice los costos actuales y futuros. La visión y el control sobre el capital y los gastos de operación pueden y deben ser racionalizados. Con una sola vista de los gastos en infraestructura propia y de nube pública, las organizaciones pueden analizar y rastrear costos y utilización, mientras identifican áreas con sobregastos y anticipan costos futuros”, agregó el principal directivo de BMC en México.

 Conclusión

En resumen, BMC enumero consejos rápidos para estar preparados para abordar con éxito  estrategias de ambientes multi-cloud:

  • Obtenga una mejor visibilidad de los activos para contar con la imagen completa de los servicios multi-cloud.
  • Eficientice las estrategias de gestión: simplificar y automatizar tanto como sea posible.
  • La inteligencia artificial y el aprendizaje de máquinas pueden quitar la repetición actividades de la gestión multi-cloud.
  • Tenga una imagen clara de los costos de nube: considere que puede no ser sensato ejecutar todo en la nube.
  • Adopte una postura proactiva para ofrecer una más amplia superficie de ataque y asegure el cumplimiento de los ambientes multi-cloud.

 “Siguiendo claros estos pasos, los ambientes multi-nube pueden ser administrados con cuidado para soportar el óptimo desempeño del negocio. El primer paso es tener claro con qué está tratando y dar los siguientes necesarios para simplificar todo lo que se pueda. Esperamos ver que muchos tomadores de decisiones de TI cuenten con un mejor control de sus ambientes multi-cloud lo que resta del año”, finalizó Wolff.

Infraestructura de impulso a las innovaciones en telecomunicaciones

La Agencia Espacial Mexicana (AEM), organismo descentralizado de la Secretaría de Comunicaciones y Transportes (SCT), continúa redoblando esfuerzos para el impulso del sector aeroespacial del país en beneficio de las nuevas generaciones.

Así como para atraer sus vocaciones tempranas a las disciplinas Stem (Ciencias, Tecnología, Ingenierías y Matemáticas) a través de múltiples acciones, entre ellas el desarrollo de infraestructura científico-tecnológica en el rubro espacial, informó el director general de la Agencia Espacial Mexicana (AEM), Javier Mendieta Jiménez.

Para tal objetivo, tuvo lugar la solemne Ceremonia de Colocación de Primera Piedra, del Centro Regional de Desarrollo Espacial en el Estado de Zacatecas (Credez) que albergará el primer Centro de Telecomunicaciones Espaciales del país, con la presencia del gobernador del estado de Zacatecas, Alejandro Tello Cristerna y el director general del Consejo Zacatecano de Ciencia, Tecnología e Innovación (Cozcyt), Agustín Enciso Muñoz.

“Hoy es un día tan histórico como emblemático, pues con la colocación de esta primera piedra, también se siembra la semilla de un nuevo tipo de infraestructura en nuestro país para el impulso de ciencia tecnología e innovación, que es la espacial, y cristaliza el hecho, también inédito, de que por primera vez en la historia del país se introdujera el moderno concepto de Infraestructura Espacial en un Plan Nacional de Desarrollo, el 2013-2018, lo que quedará como un legado de la presente administración, para las generaciones por venir”, expresó Mendieta Jiménez.

Al respecto, el científico reconoció muy especialmente el invaluable apoyo del Secretario de la SEDENA, Gral. Salvador Cienfuegos Zepeda, para la construcción que dicha institución hará de este Centro, destacó, a través de su Dirección General de Ingenieros Militares, al acertado cargo del General de Brigada Ingeniero Constructor, Xavier Fernando González Echandi, tras lo cual estará en operaciones ya en el primer semestre de 2019.

También reconoció a la juventud mexicana, la que, enfatizó, con su entusiasmo y talento, ha sido detonante y factor clave para que el tema espacial haya sido abrazado por la población mexicana, sobre todo entre las nuevas generaciones.

Al respecto, Tello Cristerna se congratuló por este significativo acto y agradeció a la AEM y a su Titular, expresando su orgullo de que la Agencia Espacial Mexicana esté en Zacatecas, pues en la actualidad la labor científica y tecnológica es una palanca de desarrollo, crecimiento económico y bienestar social de las naciones.

Y como prueba de ello señaló, basta ver los países más desarrollados y los que se están desarrollando más, como China, India, Estados Unidos, al tiempo que, indicó, es un hecho demostrado que la ciencia mejora sustancialmente la calidad de vida de la población.

En ese sentido, expresó: “Hoy es un gran día para nuestro estado, pues el evento al que hoy nos damos lugar, es sumamente significativo para la industria aeroespacial de la región y de la nación, ya que estamos impulsando un nuevo centro, que va a ser un detonante de la industria en nuestra entidad”. Expresó tener grandes expectativas de que la UAZ (que albergó en sus instalaciones la primera etapa piloto de este centro), pasará a un nuevo periodo con todas estas acciones.

Por su parte, Agustín Enciso, titular del Cozcyt, destacó el alto valor de este proyecto icónico, en conjunto con la AEM, para impulsar la atracción de inversiones a la entidad ahora en este rubro aeroespacial, y que propiciará el aumento de capacidades” pues, destacó, “las regiones crecen por el talento, y este proyecto se hace realidad por la vinculación con el talento zacatecano”.

Se congratuló de este impulso a la ciencia, tecnología e innovación, que, subrayó, ya acuden a visitar de otras entidades de todo el país, “para venir a ver el modelo de desarrollo que se está impulsando aquí, que ya está siendo muy valorado fuera del estado”, expresó.

Cada premio, cada competencia internacional en la que ganan los jóvenes en la materia espacial, coincidieron los asistentes, es un homenaje al pueblo de México, a su talento, a su creatividad, su visión, ingenio y a su inagotable entusiasmo, y Zacatecas está adquiriendo mediante este acto una nueva e innovadora vocación productiva de alto valor agregado en el tema de telecomunicaciones espaciales (comunicación entre satélites, entre cohetes, de espacio a tierra, o tierra a tierra vía espacial, entre otras), lo que contribuirá a abatir brechas tecnológicas en nuestro país y a mediano y largo plazo consolidar a México como una potencia aeroespacial global, concluyeron.

The New Possible: Experiencias integradas

Muchas tecnologías que están ganando relevancia y adopción del público son antiguas. Realidad virtual y aumentada, inteligencia artificial, interfaces de voz, dispositivos wearables, reconocimiento biométrico, todas estas tecnologías existen hace algún tiempo, pero de manera aislada. Ahora las tecnologías están empezando a mezclarse creando experiencias integradas, ofreciendo posibilidades realmente significativas en el modo en que solucionamos problemas y creamos mejores productos y experiencias. A medida que las experiencias evolucionan también hay un gran interés en explorar nuevas fronteras, imaginando interacciones completamente nuevas, posibilitadas por nuevas capacidades sofisticadas. 

* Nuevos tipos de interacción 

Hay un gran movimiento para el uso de interacciones por voz. De acuerdo con las estimaciones hechas a finales de 2017, 33 millones de dispositivos fueron habilitados en Estados Unidos para interacción por voz y para uso doméstico. 

Hoy en día hay, las cámaras de video más avanzadas con capacidad de capturar personas en movimiento, sus posiciones y expresiones, combinadas a las habilidades de redes neurales que pueden identificar y clasificar personas, sus actividades y gestos; revelan un escenario sin precedentes que crea un nuevo espacio para el diseño de interacción basado en gestos, permitiendo controlar dispositivos y servicios con nuestro lenguaje corporal. O sea, cada vez habrá más preguntas sobre cuándo es mejor usar la interacción por voz, toque o gesto. Movidos por las dificultades y limitaciones de éstas, los investigadores están explorando las posibilidades del movimiento gestual/corporal para crear una nueva categoría de productos. 

En la medida en que creamos nuevas experiencias, también debemos controlar la expectativa de los usuarios y entender la necesidad de control para cada contexto. No siempre podemos esperar resultados felices cuando lo nuevo reemplaza lo viejo. Se debe considerar el contexto y el esfuerzo realizado para tareas cotidianas. Por ejemplo, en el caso de chatbots para construir una frase que tenga sentido, se necesita escribir mucho más de lo que sería necesario al simplemente seleccionar opciones de una interfaz gráfica. 

Es necesario considerar que la interacción por voz es más natural, sin embargo, no debemos dejar de usar recursos visuales que están disponibles para ofrecer una mayor comprensión y control a los usuarios. Por ejemplo, gestionar un dispositivo por gestos puede ser más rápido y eficaz cuando es una interacción simple como aumentar la velocidad o el volumen. También es posible, más rápido y más natural comunicar una expresión por gestos, por ejemplo: “¡Me gustó!” o “¡No me gustó!”. 

¿Y el rol del diseñador en este nuevo panorama? “La interacción del futuro no se hace con botones”. La aplicación adecuada de tecnologías es simplemente una cuestión de usar lo que hay a nuestra disposición para crear los próximos estándares de productos y servicios con un proceso centrado en el ser humano – que mantiene en el enfoque las necesidades reales del usuario. 

Los diseñadores colocan al usuario adelante. Ya no se trata de diseñar una pantalla o una interfaz de conversación, sino de usar los recursos disponibles para solucionar el problema y crear una experiencia diferencial que puede ser una interacción gráfica, interacción de idioma, de voz, de realidad virtual o aumentada, basada en gestos, o sin el usuario o todo eso junto al mismo tiempo. 

Panorama mercadológico. Realizar encuestas con usuarios, entender el contexto, apoyar creaciones empáticas e intuitivas y probar soluciones con el objetivo de medir la adhesión y satisfacción.

Gartner Data & Analytics: La ponderación del esquema digital

Las organizaciones están adoptando las analíticas de self service o de autoservicio y Business Intelligence (BI) para llevarlas a todos los niveles de usuarios en la empresa. Esta tendencia es tan marcada que Gartner, Inc., predijo que para 2019, la producción analítica de los usuarios de negocio que cuenten con funciones self service superará a la de los científicos de datos profesionales.

“La tendencia de la digitalización está generando una demanda de analíticas en todas las áreas de las empresas y los organismos públicos de la actualidad”, explicó Donald Feinberg, vicepresidente y analista distinguido del grupo de Datos y Analítica de Gartner. “Los rápidos avances en Inteligencia Artificial, Internet de las Cosas, plataformas de BI y analíticas de SaaS (nube) hacen más fácil y rentable que personas no especializadas en estas áreas realicen análisis eficaces y tomen mejores decisiones basadas en información”.

Una encuesta reciente de Gartner a más de 3.000 CIO muestra que estos consideran que las analíticas y BI son la tecnología diferenciadora de sus organizaciones. Atraen la mayor parte de las nuevas inversiones y, para los CIO más productivos, representan el área tecnológica más estratégica.

Por ello, los líderes en datos y analíticas están implementando cada vez más funciones self service para crear una cultura basada en datos en toda la organización. Esto significa que los usuarios de negocios pueden usar y aprovechar más fácilmente herramientas analíticas y de BI eficaces, así como obtener resultados de negocio favorables en el proceso.

“Si los líderes de datos y analíticas se limitan a proporcionar el acceso a datos y herramientas, las iniciativas de autoservicio no funcionan”, señaló Feinberg, también presidente de la Cumbre Gartner Data & Analytics Summit Mexico 2018. “Esto se debe a que la experiencia y las habilidades de negocios de los usuarios varían mucho en cada una de las organizaciones. Por lo tanto, se necesitan procesos de capacitación, soporte e integración que ayuden a la mayoría de los usuarios de autoservicio a producir resultados significativos”.

La magnitud de la tarea de implementar la autogestión de analíticas y BI puede tomar por sorpresa a las organizaciones, en especial si tienen éxito. En las organizaciones grandes, las iniciativas de autoservicio populares pueden expandirse muy rápidamente hasta llegar a cientos o miles de usuarios. Para evitar el caos es fundamental identificar los cambios que hay que hacer en la organización y los procesos antes de poner en marcha ese proyecto.

Gartner recomienda enfocarse en cuatro áreas para establecer una base sólida para las analíticas de autoservicio y BI: Alinear las iniciativas de autoservicio con los objetivos de la organización y relacionar con anécdotas sobre casos exitosos y mesurables.

“Es importante confirmar el valor de un enfoque de autogestión de analíticas y BI, comunicar el impacto que causará y vincular su éxito directamente con resultados positivos para la organización”, afirmó Feinberg. “Así se fomenta la confianza en este enfoque y se justifica el soporte continuo. También incentiva a más usuarios de negocios a involucrarse y aplicar las mejores prácticas es sus respectivas áreas”.

Involucrar a los usuarios de negocio en el diseño, desarrollo y soporte del autoservicio: “Crear y ejecutar una iniciativa de autoservicio exitosa significa forjar y mantener la confianza entre el equipo de TI y los usuarios de negocio”, indicó Feinberg. “No existe una solución técnica para generar confianza, pero un proceso formal de colaboración desde el comienzo de la implementación de una iniciativa de autoservicio será un gran paso para ayudar a que el equipo de TI y los usuarios de negocios comprendan las necesidades del otro y así lograr el éxito”.

Adoptar un abordaje flexible y ágil al gobierno de los datos: “El éxito de una iniciativa de autoservicio dependerá en gran medida de que el modelo de gobierno de datos y analíticas tenga la flexibilidad suficiente para permitir que los usuarios del autoservicio exploren libremente las analíticas y brindarles el soporte necesario”, explicó Feinberg. Los entornos rígidos e inflexibles desalentarán a los usuarios ocasionales. Por otra parte, si no hay un gobierno de los datos, los usuarios estarán abrumados por datos irrelevantes, o se correrá el riesgo de incumplir la normativa. “Los líderes de TI deben hallar el equilibrio justo en el gobierno de los datos para que el autoservicio tenga éxito y sea escalable”, agregó.

Equipar a los usuarios de la compañía para lograr el éxito con las analíticas por autoservicio mediante un plan de integración

“Los líderes de datos y analíticas deben ayudar a los usuarios entusiastas del autoservicio con la orientación adecuada para que se pongan en marcha rápidamente y mostrarles cómo aplicar las nuevas herramientas a sus problemas de negocio específicos”, manifestó Feinberg. “Un plan formal de integración ayudará a automatizar y estandarizar este proceso. Así será mucho más escalable a medida que el uso del autoservicio se extienda por toda la organización”.

Los analistas de Gartner brindarán información adicional sobre las tendencias de liderazgo en datos y analíticas en la conferencia Gartner Data & Analytics Summit 2018, que se llevará a cabo el 11 y 12 de septiembre en el Hotel Camino Real Polanco en la Ciudad de México.

Ventajas de la implementación de fibra óptica en las compañías

Por Tadeu Viana, director comercial de Corning para Latinoamérica y Caribe.

Durante los años recientes, el sector de telecomunicaciones ha sido una de las fuerzas impulsoras de la economía en México y América Latina, generando inversión y acuerdos de negocios. En este sentido la fibra óptica se vuelve cada vez más accesible y necesaria para el desarrollo a futuro de la tecnología, acceso a los servicios del futuro y a nuevas formas de hacer negocios a través de la conectividad.

Una de las aplicaciones e industrias que están creciendo y que requieren un ancho de banda que sólo la fibra óptica les puede dar, es el Internet de las Cosas (IoT). Las compañías necesitan una conexión a internet rápida y de alta calidad para procesar enormes cantidades de información.

Es por esto que contar con un rápido internet de fibra óptica se volvió una necesidad, ya que ningún otro medio de transmisión de datos por cable ofrece el ancho de banda que la fibra óptica ofrece. El volumen de datos que los cables de fibra óptica transmiten por unidad de tiempo es mucho mayor que el transmitido por cables de cobre. El IoT es utilizado en distintas tareas y equipos tales como lavadoras inteligentes, lámparas inteligentes y otras funciones simples. Aunque si algún día queremos, por ejemplo, tener una flotilla de automóviles autónomos confiables y seguros en nuestras calles, vamos a necesitar de igual manera conexiones de internet rápidas, seguras, confiables y estables que sólo la fibra óptica nos puede garantizar. Estos beneficios pueden traducirse a conveniencia en casi cualquier tipo de industria.   

Los cables de cobre ya no cubren las necesidades de alta velocidad por varias razones. Por ejemplo, por las limitaciones de distancia en protocolos de ancho de banda elevado y a la interferencia o “cuello de botella” causada por el incremento en la frecuencia de transmisión eléctrica la cual puede causar la completa caída del sistema por sobrecarga, lo cual hace a la fibra óptica el medio de transmisión ideal.

Las industrias y los negocios dependen cada día más del Internet de alta velocidad. A medida que aumenta la demanda de consumo de datos por el usuario final, se vuelve necesario transmitir mensajes de voz más grandes, imágenes y paquetes de datos a velocidades más rápidas – y esta demanda requerirá constantemente de más transferencia y almacenamiento. Este incremento en tráfico requerirá un sistema con mayor capacidad de transferencia y una infraestructura de cableado que pueda soportar esa demanda.

La fibra óptica ofrece claros beneficios para las firmas que lo implementan. Entre estos podemos destacar:

1.       Los cables de fibra óptica son más delgados y ocupan menos espacio que los cables de cobre.

2.       La fibra óptica hace posible cargar páginas web a 2,000,000 bps de velocidad, algo inimaginable en un sistema convencional.

3.       Tiene una mayor resistencia al calor, frío y corrosión.

4.       Brinda mayor seguridad, ya que la intrusión en un sistema de fibra óptica es fácilmente detectable, dado que es muy fácil identificar la debilidad de energía luminosa que se recibe. Además, no irradia nada, lo cual es particularmente interesante para aplicaciones que requieren un alto grado de confidencialidad.

Según el actual plan de telecomunicaciones del gobierno mexicano, existen tres proyectos fundamentales que traerán beneficios a alrededor de 100 millones de mexicanos y que requieren de fibra óptica para su implementación: la “Red Compartida”, una red 4G a nivel nacional que brindará servicios de Internet y telefonía móvil a alrededor de 100 millones de mexicanos y a los 111 “Pueblos Mágicos” en México; la “Red Troncal” un proyecto que busca ofrecer conexión accesible y de alta calidad de Internet en zonas de difícil acceso y de bajos ingresos, utilizando la infraestructura de fibra óptica de la Comisión Federal de Electricidad; y “México Conectado”, proyecto que busca ofrecer acceso a internet de banda ancha que permitirá a la gente desarrollar sus habilidades que serán necesarias para formar parte de la fuerza de trabajo del futuro.

Con todos estos proyectos queda claro que la necesidad de implementación de fibra óptica es más grande que nunca. Estos cables aseguran la calidad de transmisión de datos, incrementan la velocidad y la eficiencia; varios cables de fibra óptica pueden agruparse, creando una manguera que puede cargar grandes cantidades de tráfico, resistente a la interferencia.

Otra ventaja es el sencillo incremento del ancho de banda. Con el uso del cable de fibra óptica, se puede agregar equipo nuevo, así como novedosas aplicaciones y servicios integrales que permitirán que incluso cada nuevo desarrollo pueda ser actualizado a la red de cable existente; ya que el cable óptico puede proveer una gran capacidad expandida sobre el cable colocado originalmente. Así, muchas de las actualizaciones serán más económicas y eficientes en su etapa de implementación.

Todas estas razones nos muestran que la fibra óptica ofrece grandes ventajas en su implementación en compañías. En un mundo que cada vez está más y más conectado y dependiente de la rapidez del internet de alta calidad, las organizaciones, los gobiernos y las compañías necesitan mejorar su infraestructura para poder acceder a los servicios del futuro mediante una solución más rápida, segura y rentable, la fibra óptica.

¿Por qué necesitamos ciudades inteligentes?

Por Carlos Romero, Business Development IOT Latam de Gemalto

El rápido crecimiento de ciudades en América Latina ha generado grandes desafíos que no puede resolverse de forma tradicional. La vida urbana va a dominar el próximo siglo, es por lo que, tanto las ciudades antiguas, como las nuevas, están utilizando la tecnología para ser más eficientes. El desafío es convertirse en lugares mucho más agradables para vivir con una distribución eficiente de los recursos. Las ciudades tienen que transformarse en lugares “inteligentes”.

 De acuerdo con la Organización de las Naciones Unidas (ONU) para 2050, el 70% de la población mundial habitará en centros urbanos inteligentes. Este fenómeno traerá consigo importantes efectos económicos, políticos y medioambientales, por lo que el concepto de “ciudad inteligente” toma mayor relevancia.

De acuerdo a Gemalto, empresa especialista en seguridad digital, las ciudades inteligentes no son sólo un sueño del futuro, pues gracias a las soluciones innovadoras del Internet de las Cosas (IoT), muchas ya están activas y se están expandiendo rápidamente. Los gobiernos municipales están aprovechando las tecnologías inalámbricas celulares y de área amplia de baja potencia (LPWAN) para conectar y mejorar la infraestructura, la eficiencia, la conveniencia y la calidad de vida de los residentes y visitantes por igual.

Por lo anterior, el modelo de ciudad inteligente se convierte en una gran opción para los gobiernos dado los beneficios que trae consigo.

La ONU calcula que para el 2050 dos de cada tres personas vivirán en ciudades inteligentes.

La implementación de las nuevas tecnologías permite mejorar la sostenibilidad y competitividad de la ciudad. Según datos de la Organización para la Cooperación y el Desarrollo Económicos​ (OCDE) para el año 2050, si no se toman medidas adecuadas, el crecimiento económico y demográfico tendrá un impacto medioambiental y social sin precedentes. Y urge a superar el desafío de los más de 2,000 millones de habitantes adicionales para 2050.

Londres, Nueva York, París y Hong Kong son algunas de las ciudades que se han visto beneficiadas por las nuevas soluciones en el sector de las telecomunicaciones, y en donde se han creado importantes proyectos implementando transportes sustentables que ayudan a reducir las emisiones de carbono y permiten menores tiempos de conmutación.

En Latinoamérica la formación de Ciudades Inteligentes ha tenido un ritmo más lento, Santiago de Chile, Ciudad de México y Bogotá son algunas de las ciudades que se encuentran en la búsqueda constante de soluciones para mejorar el tránsito vehicular, medir y controlar la contaminación y fomentar la educación tecnológica.

Hoy el 54% de las personas de todo el mundo vive en ciudades, una proporción que se espera llegue al 66% para 2050.

La empresa líder en seguridad digital afirma que en nuestro país, debido al crecimiento urbano en Guadalajara, Puebla, Guanajuato, Monterrey, Valle de México, este tipo de ciudades con iniciativas enfocadas a la tecnología están comenzando a ser una realidad ya que la innovación técnica y científica está tomando mayor fuerza.

Mauricio Bouskela, consultor del BID, destaca los siguientes beneficios de una ciudad inteligente:

  • Mejora la toma de decisiones: La adopción de las nuevas tecnologías, facilita la integración de procesos en la administración pública, y aportan la información necesaria para la mejor toma de decisiones y gestión presupuestaria.
  • Eficiencia gubernamental: Genera los procedimientos comunes que aumentan la eficiencia de toda la estructura de gobierno.
  • Optimización de recursos: Con la aplicación adecuada de la tecnología, se logra optimizar la asignación de recursos, tener mejor visibilidad de su uso y ayudar a reducir gastos innecesarios.
  • Mejora la atención de los habitantes: El grado de satisfacción de los ciudadanos aumenta, ya que permite brindar una atención más cercana a los usuarios, lo que ayuda a cambiar la imagen de los órganos públicos.
  • Estimula la participación de la sociedad civil: La integración de la tecnología estimula la participación de la sociedad civil y de los ciudadanos en la estructura administrativa a través del uso de herramientas tecnológicas que ayudan a monitorear los indicadores de servicios públicos, detectando los problemas, informando, compartiendo e interactuando con la estructura para resolverlos.
  • Mejora en la planeación de políticas públicas: Genera indicadores de desempeño que son útiles para medir, comparar y mejorar las políticas públicas de la ciudad.
  • La urbanización agregará otros 2,500 millones de personas a las ciudades en las próximas tres décadas.

Todo esto, las cámaras conectadas, los sistemas viales inteligentes y los sistemas de monitoreo de seguridad pública pueden proporcionar una capa adicional de protección y apoyo de emergencia para ayudar a los ciudadanos cuando sea necesario. Pero también debemos proteger las propias ciudades inteligentes de las vulnerabilidades.

Las ciudades inteligentes sólo pueden funcionar si confiamos en ellas. Todos los socios del ecosistema (gobiernos, empresas, proveedores de software, fabricantes de dispositivos, proveedores de energía y proveedores de servicios de red) deben hacer su parte e integrar soluciones que cumplan cuatro objetivos de seguridad básicos: Disponibilidad, Integridad, Confidencialidad y Responsabilidad.