Erlin Rey, de Intel: “Lo importante es trabajar de la mano con los distintos clientes para entender su necesidad”

El Especialista Técnico de Ventas de IT para América Latina en Intel habló en esta entrevista del trabajo que la compañía está haciendo en materia de seguridad y de los últimos anuncios de Computex, con especial énfasis en la adecuación a las cargas de trabajo de Inteligencia Artificial.

“Trabajamos nuestros productos de datacenter con cuatro pilares de valor en mente: Performance, Eficiencia Energética, Seguridad e Inteligencia Artificial. Esos cuatro ejes se empiezan a combinar en distintos tipos de productos, que están enfocados a diferentes necesidades”, dijo Erlin Rey, Especialista Técnico de Ventas de IT para América Latina en Intel.

Comparado con lo que la tecnología tenía en cuenta hace siete u ocho años, donde las variables eran cantidad de cores, frecuencia de operación y modo de ejecución, resulta evidente que las necesidades dentro del centro de datos han cambiado, y que hoy afloran variables nuevas. “No todas las cargas de trabajo son iguales. No todo lo que las empresas o las nubes, en general, necesitan de un procesador es lo mismo. Por eso nosotros, a partir de la sexta generación, tenemos productos enfocados a diferentes cargas de trabajo”.

Las variables en juego

En este escenario, y mientras que algunos clientes, con su cargas particulares de trabajo, necesitan poner el foco en el desempeño por core —e Intel tiene procesadores para ello—, otros requerirán un enfoque en la densidad de núcleos. “La performance es importante y está presente, pero hay otras variables que son igual de importantes”, sintetizó Ray. “Habrá clientes que claramente estén muy enfocados en la línea de eficiencia energética y el desempeño por Watt, y otros se enfocarán en la línea de performance por core. Hoy estos clientes pueden elegir”, dijo el especialista en referencia a la amplitud y variedad del portafolio. 

“Trabajamos nuestros productos de datacenter con cuatro pilares de valor en mente: Performance, Eficiencia Energética, Seguridad e Inteligencia Artificial. Esos cuatro ejes se empiezan a combinar en distintos tipos de productos, que están enfocados a diferentes necesidades”. 

Un segundo nivel de adecuación, también a nivel del silicio, son los aceleradores que se adaptan a las distintas cargas de trabajo, como por ejemplo las relacionadas con microservicios o almacenamiento. “Esta gama de elecciones siempre permitirá tres cosas: aumentar el desempeño, aumentar la eficiencia energética y reducir el costo total de propiedad del datacenter. Lo importante es trabajar de la mano con los distintos clientes para entender esa necesidad, ver cuáles son los productos que se ajustan a esa necesidad y a esa carga de trabajo y, en conjunto, determinar la mejor relación costo-beneficio para ese proyecto”, definió Rey. Sumado a esto, hay otros pilares no menos importantes, como el  de seguridad y el de IA. 

Sobre este último, el especialista de Intel explicó que no todas las demandas vinculadas a la IA se resuelven con el mismo producto. “Lo que se requiere es optimizar el producto a nivel de hardware y de software para poder solucionar el problema. Por ejemplo, nuestros procesadores Xeon tienen aceleradores específicos de Inteligencia Artificial que abarcan hasta cierto número de parámetros de un modelo. Entonces puedes realizar Inteligencia Artificial con un desempeño y una experiencia de usuario comparables a hacerlo en un datacenter de cientos de millones de millones de dólares”.

Intel también trabaja a nivel de software. “Tenemos una capa que se llama oneAPI que básicamente permite generar la interacción o la traducción entre los que programan a alto nivel y nuestros procesadores, para que esa persona que esté programando, que utilice OpenVINO —que es un optimizador de Inteligencia Artificial— se pueda basar en API y no se tenga que preocupar por el procesador que está abajo”

Seguridad para fortalecer los cimientos de la IA

Rey recordó que, así como hoy es imposible concebir el mundo del trabajo sin Internet, otro tanto ocurrirá con la Inteligencia Artificial en un futuro no muy lejano. “Para la Inteligencia Artificial, los datos son la prioridad 1, 2 y 3. Y el poder proteger esos datos tiene que ser nuestro 1, 2 y 3. Todos nuestros productos están 100% enfocados a brindar herramientas a nivel del hardware que se potencien con el software para asegurar esa cadena de seguridad”

“Lo importante es trabajar de la mano con los distintos clientes para entender esa necesidad, ver cuáles son los productos que se ajustan a esa necesidad y a esa carga de trabajo y, en conjunto, determinar la mejor relación costo-beneficio para ese proyecto”.

Para el Especialista Técnico, el acceso, la protección y la integridad de los datos garantizan la calidad de la IA resultante. A fin de cuentas aquí aplica el adagio: “Si entra basura, sale basura”. En palabras de Rey: “Si el modelo es el mejor del mundo, pero los datos son malos, el resultado va a ser malo”

Por otra parte, Intel apuesta al Edge Cloud (un modelo que acerca la comodidad y la accesibilidad de la nube al lugar donde se crean y utilizan los datos). “La idea es que esta plataforma esté optimizada tanto en hardware como en software, a fin de llevar la Inteligencia Artificial a todas las personas, a todos los dispositivos y a todos los casos de uso”. Todo esto en un ambiente abierto y además seguro. “Por ejemplo, a nivel de procesadores para PCs, aportamos la plataforma vPro. Uno de sus pilares es tener tres capas de seguridad: una por debajo del sistema operativo, una a nivel del sistema operativo y otra capa por encima del sistema operativo. Son muchas tecnologías a nivel de hardware”

“Si nos vamos al nivel de los servidores —añadió Rey—, existen otras tecnologías que empiezan a sumarse para reforzar esas capas de seguridad”. En este contexto, el ejecutivo habló del ciclo de vida de los datos y de cómo esas operaciones, a nivel de procesador para centros de datos,  son guiadas por aceleradores específicos, particularmente QuickAssist Technology (QAT)

“Por ejemplo, cuando el dato es procesado en el servidor, hay tecnologías como las de Computación Confidencial que básicamente limitan qué parte de la computadora tiene acceso a ese dato. Puede ser tan grande como, por ejemplo, la memoria; algo intermedio, como la máquina virtual que lo esté procesando; o algo más chico, como solo el programa. Y hay tecnologías asociadas a cada una de estas posibilidades: Total Memory Encryption (TME), Trust Domain Extensions (TDX) y Software Guard Extensions (SGX). Esas tres tecnologías se suman a los aceleradores para que todo ese proceso del dato siempre esté resguardado. Eso da inicio a la Computación Confidencial, habilitando, por ejemplo, plataformas de pago más seguras”, precisó Rey. 

Por otra parte, Intel lleva varios años siendo número uno a nivel de Software Security Assurance. “Esto significa que trabajamos muy fuertemente en cómo diseñamos los productos y, una vez que el producto existe y está en uso, lo monitoreamos. Y, si encontramos algún problema, somos muy cuidadosos en cómo lo comunicamos y cómo lo resolvemos”, dijo el Especialista Técnico, y comentó que, en los últimos años, cerca del 95% de los problemas de seguridad que se han encontrado en los procesadores fueron detectados por la propia Intel y se publicó rápidamente la corrección. “Trabajamos de esa forma. Entendemos que esa forma de trabajar permite progresar muchísimo más y dar tranquilidad y seguridad en el uso de nuestra tecnología”. En este contexto, Rey advirtió que proveedores que se mueven en los mismos ámbitos que Intel, con varias veces más vulnerabilidades, no siguen estas buenas prácticas.

¿Obsolescencia impulsada por IA?

Consultado sobre qué sucederá en los próximos años con todos esos equipos de cómputo personal que no están preparados para la IA, Rey hizo una salvedad: “No hay una respuesta definitiva, las necesidades de cada uno a nivel de cómputo son muy diversas. Nuestro portafolio de productos está pensado para brindar flexibilidad, de modo de tener el producto adecuado para el trabajo que quieres hacer”

En la práctica, y dependiendo de las capacidades y recursos que demande un programa o una aplicación determinados, es posible que un equipo sin capacidades de IA no tenga el mejor desempeño posible. “Si ese programa en particular tiene requerimientos tecnológicos avanzados, al correrlo o intentar correrlo en un dispositivo que no tenga ese tipo de tecnologías (que incluya los “motores” CPU, GPU y NPU), probablemente tengas un problema”.

“Ahora bien, si tu necesidad no pasa por ese tipo de cargas de trabajo (hablamos de una computadora para navegar y ver videos, o que está en una sucursal exhibiendo publicidad), entonces los programas no necesitan capacidades de IA. De modo que probablemente esa computadora que carece de los tres motores que mencionamos puede funcionar”, agregó Rey. “En Intel tenemos una plataforma de software optimizada, que nos permite utilizar los tres motores. En equipos donde haya CPU y GPU vas a poder correr aplicaciones de Inteligencia Artificial, aunque no correrán sobre la NPU. Ahora bien, si la aplicación solo corre sobre NPU, entonces no se podrá ejecutar”. Rey también recordó que hay mucho software Open Source que puede ser ajustado y adaptado para correr sobre los distintos motores, si bien eso puede variar el desempeño de la ejecución. 

“Un aspecto fundamental es qué pasa en ambientes educativos. Y ahí sí creemos que la cercanía de la IA con los estudiantes, desde los primeros años de escolaridad, va a ser fundamental para su desarrollo”. En este contexto, Rey citó el programa Skill for Innovation, que ayuda a preparar al ambiente educativo para implementar y tener herramientas de Inteligencia Artificial aplicadas a la educación y dentro de las aulas, de modo que los alumnos desarrollen esas habilidades técnicas y de pensamiento que serán importantes, no sólo en su entorno educativo actual sino, de cara al futuro, en el ambiente laboral. 

Anuncios y novedades

Consultado sobre los recientes anuncios en Computex y el posicionamiento de estas novedades, Rey señaló las nuevas GPUs para workstations B50 y B60, basadas en la arquitectura Battlemage. “Son arquitecturas y son GPUs que vienen ya con toda la experiencia y todo el desarrollo del software que recogimos de los primeros lanzamientos de Arc. Básicamente es la versión de workstation de lo que lanzamos hace unos meses como GPUs para consumo”, describió el ejecutivo, quien también aclaró que este segmento de dispositivos está relacionado con aplicaciones de creación de contenido, diseño, analítica de datos y simulaciones, las cuales hacen fuerte uso de las GPUs. 

“Un aspecto fundamental es qué pasa en ambientes educativos. Y ahí sí creemos que la cercanía de la IA con los estudiantes, desde los primeros años de escolaridad, va a ser fundamental para su desarrollo”.

“Otro de los lanzamientos abarca aceleradores para Inteligencia Artificial, pero ya no en las PCs sino en los servidores. Ahí tenemos Gaudi 3, que es la tercera generación de nuestro acelerador específico para lo que es fine-tuning e inferencia de IA. Ese acelerador se empieza a lanzar en dos formatos: ya estaba presente en servidores, ahora empieza a estar presente también en tarjetas PCI Express y en un formato de rack directamente para diseños o modelos que requieran mucho mayor procesamiento de datos”, precisó Rey. 

A esto se sumaron lanzamientos de software, como AI Builder Assistant, que es básicamente una forma de acercar la IA a las personas, sin necesidad de programar. “Con unos pocos clics pueden bajar el programa, instalarlo, cargar de forma muy sencilla un modelo y generar un asistente virtual propio dentro de la computadora preparada para IA. Esto viene en varios sabores, como por ejemplo RRHH, Finanzas o Ventas”

AI Playground, otra de las novedades de software liberadas por Intel, fue pensado para hacer Inteligencia Artificial Generativa de imágenes y procesamiento de lenguaje natural. De esta forma, es posible crear un escenario ficticio de ventas con esta herramienta en una AI PC, y luego cargarlo en AI Builder Assistant, que responderá a las preguntas relacionadas con dicho escenario. Las soluciones construidas de esta manera pueden tener un impacto significativo en las áreas de atención al cliente, soporte técnico o el entrenamientos de nuevos empleados, por citar algunas. “Así podemos brindar a esas personas un asistente personalizado para ayudarlas en la resolución de problemas. Si unimos esto al Open Source, tenemos un ejemplo claro de cómo la IA nos viene a cambiar la forma como trabajamos”.

Autor

  • Periodista de ciencia y tecnología, con más de dos décadas escribiendo para el canal de TI.

banner-web