Cuando Seymour Cray construyó lo que generalmente se considera la primera supercomputadora en 1964, corrió 1 megaflop (un millón de operaciones de punto flotante por segundo). Hoy el Supercomputadora de frontera en el Laboratorio Nacional de Oak Ridge en Tennessee realiza un quintillón (un billón de billones) de operaciones por segundo. Pero el New York Times informó recientemente que los investigadores chinos habían roto la barrera de la computación a la exaescala, realizando un cálculo que a las antiguas máquinas del Laboratorio Nacional de Oak Ridge les habría llevado 10.000 años completar en tan solo 304 segundos.
La informática de alto rendimiento (HPC) no solo se está volviendo más rápida y capaz de realizar cálculos más masivos y complejos, sino que también se ha vuelto mucho más accesible y asequible para empresas de todos los tamaños y tipos. Sin embargo, los gobiernos federales de todo el mundo son los usuarios más agresivos de HPC. Lo ven como una herramienta vital para avanzar en I+D junto con la competitividad de una nación en el escenario mundial.
HPC alcanza la mayoría de edad
Lo global mercado de HPC está caliente, generando $ 42 mil millones en 2021 y se prevé que alcance $ 71,7 mil millones para 2030. Dentro del gobierno federal de EE. UU., HPC se está utilizando para acelerar la ciencia básica, desarrollar terapias y otros tratamientos para COVID-19, realizar aplicaciones militares como simulaciones, manejar modelado climático y meteorológico, y una miríada de otras tareas en diversas agencias.
Antes, las soluciones de HPC eran construidas, compradas o arrendadas, y entregadas y administradas por el cliente en los centros de datos de la empresa. La capacidad y la demanda eran difíciles de predecir, por lo que estos sistemas a veces podían quedarse inactivos y otras veces estar sobreprogramados. Ahora, el uso de los recursos de la nube junto con la infraestructura de HPC local permite a las organizaciones ejecutar cargas de trabajo de HPC según sea necesario, con pago por uso, con ahorros de costos demostrables.
Otro factor que atrae más interés e inversión en HPC es la disponibilidad de máquinas más pequeñas y asequibles. Además de las supercomputadoras de clase líder que cuestan más de $500 000, hay máquinas divisionales que cuestan entre $250 000 y $500 000 y máquinas departamentales que cuestan tan solo $100 000. Los servidores y procesadores especializados están disponibles para adaptarse a diferentes usos y presupuestos.
Un reciente estudio de investigación calculó que cada dólar invertido en HPC en un entorno empresarial generó $507 en ingresos por ventas y $47 en ahorros de costos. Además de las métricas de ROI cuantitativas, también se demostró que la investigación de HPC salva vidas, conduce a importantes asociaciones públicas/privadas y estimula la innovación.
Crecimiento de HPC en el gobierno de EE. UU.
Durante años, las agencias del gobierno federal de EE. UU., como el Departamento de Defensa (DOD), el Departamento de Energía (DOE) y la Fundación Nacional de Ciencias, han estado realizando I+D de hardware y software para HPC y capacitando a las personas para utilizar las máquinas y generar aplicaciones novedosas. Si bien el DOD ha mantenido clasificados los detalles del uso de su supercomputadora para proteger la seguridad nacional, el DOE se ha convertido en un líder mundial en el desarrollo de soluciones HPC para genómica, energía avanzada y sostenible, instrumentación científica a gran escala y ciencia de la información cuántica. La NSF brinda soporte para la infraestructura de HPC en instalaciones de investigación académica en los EE. UU., con centros de supercomputación en California, Pensilvania, Illinois, Tennessee y Texas.
En los últimos años se han creado otras agencias que se cruzan con HPC. Incluyen la Actividad de Proyectos de Investigación Avanzada de Inteligencia (IARPA) y el Instituto Nacional de Estándares y Tecnología (NIST) que manejan la investigación científica y de ingeniería utilizando inteligencia artificial, computación cuántica y biología sintética. El Departamento de Seguridad Nacional (DHS), la Oficina Federal de Investigaciones (FBI), la Administración Nacional de Aeronáutica y del Espacio (NASA), los Institutos Nacionales de Salud (NIH) y la Administración Nacional Oceánica y del Espacio (NOAA) utilizan HPC y están activos en definir nuevos requisitos para las soluciones de HPC para una amplia gama de aplicaciones.
Nuevas Aplicaciones, Nuevas Arquitecturas
El análisis de big data en tiempo real, el aprendizaje profundo y el modelado y la simulación son usos más nuevos de HPC que los gobiernos están adoptando para una variedad de aplicaciones. El análisis de big data se está utilizando para descubrir crímenes. El aprendizaje profundo, junto con el aprendizaje automático, es capaz de detectar amenazas cibernéticas más rápido y más eficientemente.
El modelado y la simulación utilizando supercomputadoras y grandes cantidades de datos están generando simulaciones de alta fidelidad que permiten a los científicos analizar teorías y validar experimentos. Desde eventos en el sistema solar hasta los mecanismos dentro de un protón y el flujo sanguíneo en todo el cuerpo, las simulaciones científicas son variadas, ofrecen una gran promesa, incluyen muchos puntos de datos y requieren mucha potencia de procesamiento. En los EE. UU., HPC permite al DOE modelar y simular los impactos de un clima cálido en las capas de hielo de la Antártida y Groenlandia y modelar el movimiento y el impacto del agua, los gases y los sistemas de tormentas en el nivel del mar y la temperatura del océano. Los resultados de esta investigación influirán en importantes decisiones de planificación comunitaria y seguridad pública.
Ya sea que las agencias gubernamentales confíen en entornos de HPC locales, en la nube o ambos, es vital que desarrollen un ecosistema de socios de soluciones y servicios para ayudar con los desafíos que se avecinan. Con el estado del arte del hardware HPC, el software, la IA y otras innovaciones que evolucionan rápidamente, la falta de preparación y acción podría afectar la viabilidad futura de un país en el mercado global, en un planeta que se calienta o en el campo de batalla.
Para obtener más información sobre HPC en el gobierno, lea «Superar a la informática es superar a la competencia: amenazas y oportunidades competitivas en relación con el liderazgo de HPC del gobierno de EE. UU.».
***
Las tecnologías Intel® hacen avanzar la analítica
El análisis de datos es la clave para desbloquear el máximo valor que puede extraer de los datos en toda su organización. Para crear una estrategia de análisis productiva y rentable que obtenga resultados, necesita un hardware de alto rendimiento que esté optimizado para funcionar con el software que utiliza.
El análisis de datos moderno abarca una variedad de tecnologías, desde plataformas y bases de datos de análisis dedicadas hasta aprendizaje profundo e inteligencia artificial (IA). ¿Acabas de empezar con la analítica? ¿Listo para evolucionar su estrategia de análisis o mejorar la calidad de sus datos? Siempre hay espacio para crecer, e Intel está listo para ayudar. Con un ecosistema profundo de socios y tecnologías de análisis, Intel acelera los esfuerzos de los científicos de datos, analistas y desarrolladores en todas las industrias. Encuentra mas sobre Análisis avanzado de Intel.