Noticias3D
Registrarme | Recuperar password
  • Inicio(current)
  • Noticias
    • Últimas noticias
    • MÁs leÍdas
    • MÁs comentadas
    • Envia una noticia
  • Articulos
    • Todos
    • Placas base
    • Tarjetas grÁficas
    • Almacenamiento
    • F.AlimentaciÓn
    • Cajas de ordenador
    • Audio y vÍdeo
    • Gaming
    • PortÁtiles
    • GuÍas y taller
    • Memoria
    • Monitores
  • Tags
  • Drivers
  • Foro
×

Google

SK hynix prepara un AI SSD con hasta 10 veces más rendimiento, alarma en el sector SSD

16 de diciembre, 2025 |
David |
Comentarios: 0 |
WCCF Tech

NVIDIA y SK hynix están trabajando en el desarrollo conjunto de un AI SSD, una unidad de almacenamiento de alto rendimiento para inferencia que podría cambiar por completo el mercado del almacenamiento para sistemas de inteligencia artificial.

Este proyecto de AI SSD para mejorar el rendimiento trabajando con inferencia sería capaz de superar los 100 millones de operaciones de entrada y salida en 2027. La base técnica detrás de este proyecto sería el uso de varias capas de memoria NAND Flash apiladas para aumentar hasta en 10 veces el ancho de banda, y crear SSDs mucho más rápidos.

Apilar memoria NAND Flash en grandes cantidades dispararía el consumo de este tipo de chips, y podría afectar a la disponibilidad para el mercado de consumo general, como ya ha sucedido con la DRAM, que está siendo drenada por la alta demanda que viene del mercado de la IA.

La primera versión de esta tecnología, llamada HBF, podría ser presentada en enero del año que viene, y los primeros prototipos se enviarían para evaluación en 2027. Si se empieza a comercializar en 2027 podría crear un mercado de 1.000 millones de dólares, y crecer en 2030 hasta los 12.000 millones de dólares.

Estas unidades de almacenamiento podrían resolver los cuellos de botella que se encuentran actualmente en los sistemas de alto rendimiento para IA, y que vienen en parte de las limitaciones que tiene la memoria HBM. Esas limitaciones son sobre todo por la capacidad total para almacenar modelos con una gran cantidad de parámetros.

Por ejemplo, el modelo GPT-4 utilizado en ChatGPT consume 3,6 TB de memoria, pero la cantidad máxima que monta una GPU actual es de 192 GB, así que es necesario agrupar varias GPUs para llegar al esa cantidad de memoria requerida. El uso unidades AI SSD de apoyo con una gran capacidad de almacenamiento y un alto rendimiento podrían superar esa limitación.

Tags: Almacenamiento, SSD

Ver comentarios: 0

Anterior
Siguiente
Últimas noticias
  • Pragmata: imágenes, comentarios, consumo de VRAM e impresiones técnicas
  • Epic Games Store en problemas: la gente solo quiere los juegos gratis
  • Confirmado: 4A Games anuncia Metro 2039
  • Microsoft explica por qué ya no deja activar Windows 10 y Windows 11 por teléfono
  • Pete Hines abandonó Bethesda porque ha dejado de ser algo auténtico o genuino
  • Windows 11 Pro frente a Windows 11 LTSC: ¿Hay diferencias en gaming?
  • Tumban un vídeo filtrado de Metro 2039 que fue cancelado en 2022
  • Llega a España el ROG Zephyrus Duo, el primer portátil gaming OLED de doble pantalla de 16"
  • Sony y el formato digital: ¿podría ofrecer un nuevo formato físico para consolas sin lector?
  • Configuraciones de los Intel Core Ultra 400
Top noticias
  • Take-Two dice el precio de GTA VI
  • Resident Evil Requiem ha sido crackeado, Denuvo cae en tiempo récord
  • NVIDIA muestra Neural Texture Compression: reduce el uso de VRAM de 6,5 GB a menos de 1 GB
  • GeForce RTX 2070 SUPER frente a GeForce RTX 5060 con DLSS 4.5
  • El emulador RPCS3 cambia sus requisitos
  • NVIDIA Driver 595.97 frente a 595.79 con una GeForce RTX 5060
  • El remake Mortal Kombat Trilogy HD ya soporta juego online
  • Logran ejecutar Resident Evil Requiem con trazado de rutas en una Radeon RX 9070 XT
Noticias 3D
  • articulos
  • drivers
  • foro
  • tags
  • contacto
  • publicidad
© Copyright 2000 - 2026 | nFinite9000 S.L. | Todos los derechos reservados | Aviso legal
Comentario

Sed ut perspiciatis