1 : cabfl  (2507 comentarios)
22/01/2024 18:22:46
Hyperthreating fue beneficioso desde su primera implantación en los Xeon Foster MP y Prestonia.
Pero en esa época había muy poco software capaz de aprovechar multihilo. De esas pocas aplicaciones, los motores de renderizado exprimían hasta la última gota de rendimiento que se podía mejorar con Hyperthreating.
2 : AvFenix  (3372 comentarios)
23/01/2024 10:36:14
Un núcleo para que tenga doble hilo requiere doblar algunas unidades clave y por tanto añadir complejidad. En el momento en que en el mismo espacio que ocupa un solo núcleo de doble hilo se puedan meter 2 núcleos completos (sin capar) de hilo simple van a dar mayor rendimiento esos 2 núcleos de un solo hilo que un núcleo de doble hilo. En ese momento va a dejar de tener sentido el hyper-threading de Intel y el SMT de AMD.
Lo tenemos cerca en el caso de la tecnología híbrida de Intel con p-cores y e-cores. En el espacio que ocupa un solo p-core caben 4 e-cores. En aplicaciones que aprovechan el multihilo suelen dar mayor rendimiento 4 e-cores con 4 hilos que un solo p-core con 2 hilos. Solo en casos muy concretos la mayor caché y velocidad de reloj mantiene con mejor rendimiento el p-core que 4 e-cores. Pero creo que la tecnología podría llegar a un punto donde no tenga sentido tener núcleos de doble hilo. Simplificas más y con ello metes más núcleos y va a ser más efectivo.