Los días 30 de septiembre y 1 de octubre, DCD celebrará DCD>Compute. El evento se realizará en conjunto con DCD>Connect Latam en el Barceló Maya Grand Resort.
Con un enfoque en compute, storage y networking, DCD>Compute será un punto de encuentro estratégico para los principales actores del ecosistema tecnológico latinoamericano, desde hyperscalers y líderes de TI empresarial, hasta proveedores de soluciones especializadas.
La agenda del evento cuenta con representantes de empresas como Aeroméxico, Aerolíneas Ejecutivas, AMD, Arcus (a Mastercard company), AWS, Bupa Global, Citibanamex, Coca-Cola Femsa, Grupo Pochteca, Grupo Salinas, Google, Hertz, HPE, HSBC, Intel, Johnson & Johnson, Microsoft, MTnet, Nestlé, Nissan Motor Corporation, Nvidia, OpenAI, Oracle, Park Place Technologies, TikTok, entre otras.
Uno de los paneles destacados es “Infraestructura e inteligencia artificial: ¿Cuál es el camino hacia la transformación tecnológica en las empresas?”, en el que participarán Cuauhtémoc Rojas Pavón, IT Director de Arcus; Eduardo Cabrera Maldonado, Director, Lead Enterprise Architect de HSBC; José Luis Cisneros, Director Corporativo y Américas de Tecnologías de la Información de Grupo Pochteca; Juan Antonio Peña González, Principal Enterprise Architect en Google; y Roberto Andino, Director de Tecnología en Grupo Salinas Honduras.
DCD entrevistó a Eduardo Cabrera previo a su participación en el panel, con el fin de profundizar en los temas que se abordarán durante la sesión.

¿Cuál considera el mayor reto para que las empresas alineen su infraestructura tecnológica con proyectos de inteligencia artificial a gran escala?
Como resultado de la explosión en el uso de LLMs, muchas empresas han comenzado a crear distintas soluciones que aspiran a brindar una ventaja competitiva, posicionarse como empresas innovadoras e incursionar en el mercado lo más pronto posible con este tipo de soluciones. Sin embargo, las complicaciones derivadas de un lanzamiento prematuro evidencian la falta de planeación, pues una estrategia de IA va mucho más allá de simplemente usar un LLM. Desde mi perspectiva, el mayor reto que enfrentan las organizaciones es la falta de claridad y de una estrategia real orientada a la implementación de IA. Esa falta de claridad deriva en una pobre o nula planeación de la arquitectura empresarial, de aplicaciones y de negocios.
Si se piensa en proyectos a gran escala, es indispensable contar con una estrategia que garantice que la implementación de la IA sea capitalizable, rentable, sustentable y mantenible. Asimismo, esa estrategia es esencial para establecer metas claras respecto al IT Capacity Planning, ROI, TCO, Revex (Revenue Expenditure) y al ciclo de vida del producto, plataforma o solución de IA.
¿Qué criterios, como los de carácter regulatorio y de resiliencia, deben utilizarse para decidir si un caso de uso de IA se ejecuta en la nube, en un entorno híbrido o en edge computing?
Cuando se tiene claridad sobre la estrategia de IA, comienzan a surgir otros conceptos, como QoS (Calidad del Servicio), alcance geográfico de la solución, limitaciones y descargos de responsabilidad, así como responsabilidades de seguridad de la información y cumplimiento regulatorio. Un análisis de estos elementos es indispensable para decidir dónde ejecutar la IA.
Un factor decisivo es el acceso a la información: la decisión sobre dónde ejecutar el caso de uso depende del alcance de acceso a los datos. Otro factor clave es la escalabilidad requerida y la elasticidad necesaria para incrementar el rendimiento de la IA cuando sea necesario. Por último, el costo asociado al rendimiento es fundamental para elegir el entorno que permita obtener el mejor desempeño al menor costo posible.
En un entorno híbrido o multicloud, ¿cuáles son los mayores riesgos en la gestión y seguridad de datos para IA, y cómo se están mitigando?
Existen dos elementos obligatorios que ayudan a mantener un control efectivo sobre la seguridad de los datos con los que funciona el modelo de IA: el primero es ejercer una gobernanza efectiva sobre las capacidades y alcances de la IA; el segundo es la certificación y el proceso de gestión del conocimiento (Knowledge Management), que permiten tener claridad sobre el origen, destino, limitaciones y obligaciones al utilizar esos datos en la IA.
Mirando a futuro, ¿qué tecnologías emergentes ve como catalizadores que obligarán a repensar la infraestructura actual?
El mundo cambió en un abrir y cerrar de ojos: bastaron dos años para que adoptáramos la inteligencia artificial en nuestras vidas como algo completamente natural e intuitivo. Aún más, nos estamos volviendo dependientes de ella y cada vez demandamos soluciones más complejas, elaboradas y rápidas. Comprendimos rápidamente el potencial que la IA nos ofrece para aumentar nuestras capacidades, mejorar la eficiencia e incrementar la productividad.
Estas demandas, que seguirán creciendo y exigirán mayores capacidades de infraestructura, requerirán las siguientes características: incrementar el rendimiento, mejorar los tiempos de respuesta y aumentar la capacidad de “memoria” de la IA.
Considero que habrá cuatro aristas clave al repensar la infraestructura actual:
- Mayor rendimiento: obtener precisión y aumentar la capacidad de razonamiento demandará un incremento en la capacidad de procesamiento.
- Mayor throughput: será necesaria una mayor capacidad de transferencia de información y mantenimiento de la QoS.
- Portabilidad y repetitividad: se deberán optimizar las capacidades para utilizar eficazmente el caché y minimizar el uso innecesario de recursos en tareas comunes.
- Almacenamiento: aumentar esta capacidad es indispensable para mantener un registro de los datos generados para: alimentar la IA (input), como resultado del uso de su razonamiento (output) y como residuo, resultado del uso individualizado o como resultado de los procesos de negocio (remainder).
(datacenterdynamics.com)