Claude Code, la conocida plataforma de programación agéntica, ha logrado portar código CUDA de NVIDIA al ecosistema ROCm de AMD en apenas 30 minutos, un hito que ha reactivado el debate técnico sobre si este avance supone el principio del fin del **foso de CUDA**, la barrera tecnológica que durante años ha protegido el dominio de NVIDIA en programación GPU.
Según ha compartido un usuario en Reddit identificado como johnnytshi, fue posible trasladar un backend completo escrito en CUDA a ROCm utilizando Claude Code, sin recurrir a capas de traducción intermedias. El proceso, asistido íntegramente por IA, se completó en media hora y el principal inconveniente encontrado estuvo relacionado con diferencias en el “data layout”.

Claude Code opera dentro de un marco agéntico, lo que implica que no se limita a sustituir palabras clave de CUDA por sus equivalentes en ROCm. En su lugar, analiza el contexto y la lógica de los kernels para preservar el comportamiento original del código. Otra ventaja relevante es que no requiere configurar entornos complejos de traducción como Hipify, ya que el trabajo puede realizarse directamente desde la línea de comandos.
Este avance se enmarca en una tendencia más amplia: las cargas de trabajo agénticas se están consolidando como una de las principales aplicaciones de la inteligencia artificial. Herramientas como Claude Code o Antigravity de Google están alterando la forma en que los desarrolladores abordan tareas de programación complejas, incluida la portabilidad entre plataformas que históricamente han estado muy cerradas.
No obstante, el propio autor del experimento no ha especificado el tamaño ni la complejidad real del código base utilizado. ROCm replica muchos conceptos del ecosistema CUDA, por lo que las conversiones sencillas no representan un reto significativo para una IA. El verdadero desafío surge en proyectos grandes y altamente interconectados, donde el sistema necesita un contexto mucho más amplio para realizar una migración fiable.

Además, numerosos expertos recuerdan que la programación de kernels de alto rendimiento depende de optimizaciones profundas ligadas al hardware, como jerarquías de caché, acceso a memoria y características específicas de cada arquitectura. En este terreno, Claude Code podría quedarse corto, ya que el ajuste fino de rendimiento sigue requiriendo conocimiento detallado del hardware subyacente.
Los intentos por reducir o atravesar el llamado "foso de CUDA" no son nuevos. En los últimos meses, han aparecido iniciativas como ZLUDA o esfuerzos internos de compañías como Microsoft para facilitar la ejecución de código CUDA fuera del ecosistema de NVIDIA. A pesar de ello, CUDA continúa siendo el estándar dominante en programación GPU acelerada, especialmente en entornos de alto rendimiento, HPC e inteligencia artificial.
El experimento con Claude Code demuestra que la portabilidad asistida por IA es cada vez más viable para casos sencillos, prototipos y pruebas rápidas. Sin embargo, todavía queda por ver hasta qué punto estas herramientas pueden sustituir a los métodos tradicionales cuando se trata de proyectos complejos y altamente optimizados, donde el foso de CUDA sigue siendo profundo.
Fuente: Reddit