Infinity Fabric es una tecnología de interconexión coherente de alta velocidad y baja latencia desarrollada por AMD. Su propósito principal es facilitar la comunicación eficiente entre diferentes bloques IP (Intellectual Property) dentro de un System-on-Chip (SoC), así como entre múltiples dies o chips en un mismo paquete o en diferentes sockets. Actúa como una malla (mesh) o bus de interconexión que permite el flujo de datos y control entre CPU cores, GPUs integradas, controladores de memoria, controladores PCIe y otros aceleradores, manteniendo la coherencia de caché a través de los diferentes componentes.

La implementación más prominente de Infinity Fabric se encuentra en las arquitecturas de procesadores de AMD, incluyendo sus CPUs Ryzen (desde Zen 1 en adelante), EPYC y sus GPUs Radeon. En los procesadores Ryzen y EPYC, Infinity Fabric es crucial para interconectar los 'Core Complex Dies' (CCDs) o 'Compute Dies' (CDs) que contienen los núcleos de CPU y la caché L3, así como el 'I/O Die' que alberga los controladores de memoria y PCIe. Esto permite a AMD construir procesadores con un alto número de núcleos y gran ancho de banda de memoria utilizando múltiples dies más pequeños y económicos, en lugar de un único die monolítico. También se utiliza en las GPUs de AMD para la comunicación interna y, en algunas configuraciones, para la interconexión entre múltiples GPUs (ej. Radeon Instinct MI100).

Para un Arquitecto de Sistemas, Infinity Fabric es fundamental porque habilita arquitecturas de chiplet que ofrecen ventajas significativas en términos de escalabilidad, rendimiento y coste. Permite diseñar sistemas con un mayor número de núcleos y mayor ancho de banda de memoria sin incurrir en los desafíos de fabricación y los costes de rendimiento de los dies monolíticos muy grandes. Sin embargo, introduce trade-offs: la latencia de comunicación a través de Infinity Fabric entre diferentes dies es inherentemente mayor que la comunicación dentro de un mismo die. Esto requiere una cuidadosa consideración en la asignación de tareas, la topología de la memoria y la optimización del software para minimizar los cuellos de botella. Comprender cómo las cargas de trabajo interactúan con esta interconexión es clave para maximizar el rendimiento en plataformas AMD, especialmente en entornos de computación de alto rendimiento (HPC) y centros de datos.