Noticias3D
Registrarme | Recuperar password
  • Inicio(current)
  • Noticias
    • Últimas noticias
    • MÁs leÍdas
    • MÁs comentadas
    • Envia una noticia
  • Articulos
    • Todos
    • Placas base
    • Tarjetas grÁficas
    • Almacenamiento
    • F.AlimentaciÓn
    • Cajas de ordenador
    • Audio y vÍdeo
    • Gaming
    • PortÁtiles
    • GuÍas y taller
    • Memoria
    • Monitores
  • Tags
  • Drivers
  • Foro
×

Google

Comentarios

Soft Machines busca ofrecer núcleos virtuales más rápidos que los reales

28 de octubre, 2014 |
David |
Comentarios: 5
| Tom's Hardware
Volver a la noticia   
Tags: Multinúcleo, Tecnología, Procesadores

Comentarios:

1 : Wendygo  (468 comentarios)

28/10/2014 12:10:32
Ya está tardando AMD en comprar esta empresa.
Útil: 0, De acuerdo: 5, Discrepo: 0, Ortografía: 0

2 : harl  (423 comentarios)

28/10/2014 12:55:12
#1 Creo AMD ya hablaba de algo parecido una especie de SMT inverso allá por el 2006 ...

Francamente eso de repartir instrucciones de un solo hilo entre dos cores (y sobre todo sincronizarlos) lo veo más bien complicado y poco practico por las latencias que pueda añadir.

Es decir en código muy secuencial puede, pero cuando tengan que moverse con saltos, dependencias de datos ...
ya veremos si sale algún día y si realmente funciona de verdad.
Útil: 1, De acuerdo: 1, Discrepo: 1, Ortografía: 0

3 : Gman  (2733 comentarios)

28/10/2014 14:51:30
Interesante, ojala lo consigan, porque las CPU's en los ultimos años han avanzado mucho en número de cores, sobre todo a nivel server/workstation donde hay Intel Xeon Haswell de 18 cores físicos, y la multitarea funciona de maravilla, pero la potencia de los cores sube con cuentagotas entre generaciones.

Como ejemplo de Intel pongo un C2D E6750 del 2007 con OC a 3,2 Ghz saca 16 seg. en el test SuperPI 1MB singlecore y un Haswell 4790K del 2014 con OC a 5Ghz 7,2 seg. Con Cinebench singlecore que es un test single mas moderno y usa todo tipo de instrucciones nuevas lo mismo un +110% de diferencia.

En 7 años un aumento de poco más del doble de potencia por core. Y comprar una CPU de mas de 4 cores no te va a solucionar este cuello de botella en singlecore.

O virtualizan cores o se usa otro material en las CPU's para aumentar mucho más la frecuencia. Seguramente sea mas facil lo segundo, por lo que comenta #2

A mi tambien me suena haber leido que Intel y AMD han intentado esto para marcar una ventaja frente al rival y lo dejaron por imposible.
Útil: 1, De acuerdo: 1, Discrepo: 3, Ortografía: 0

4 : johnfernan  (76 comentarios)

28/10/2014 23:46:47
#3 El SuperPI no es un indicador absoluto, todo depende del programa que se utilice.

He realizado pruebas de conversión de video en Mainconcept a MPEG2 de un P4 541 3.2 (1C/2T) comparado con un Pentium Dual Core E5800 3.2 (wolfdale 2C) y se demora la mitad del tiempo.
Luego de un Pentium Dual Core E5800 3.2 (wolfdale) con un Core i3 2100 (Sandybridge 2C/4T) 3.1Ghz tarda la mitad.

Entonces de un P4 HT a un Core i3 se disminuyo a la cuarta parte el tiempo necesario para convertir un archivo a MPEG2. Estos resultados para Mainconcept v1.05.01.

Lo de la virtualización de todos los recursos de la CPU con VISC se hace con un frente ancho y mayor IPC. PDF VISC , VISC Report. Todo esto me recuerda a nvidia Denver con su "Dynamic Code Optimization", solo que al parecer la arquitectura VISC va más allá. Lo que llama la atención es que el chip está construido por TSMC a 28nm y aun así funciona a solo 350MHz, en el documento de reporte describen que tiene 10 etapas.

Aquí todo depende de las instrucciones que se quieran ejecutar. Existen instrucciones que se ejecutan más rápido y con menos consumo en un ASIC, o en un FPGA, otras en un procesador de propósito general y como busca hacerlo AMD uniendo CPU y GPU. Y no olviden que los computadores cuanticos son miles de veces más rápidos para algunas tareas (criptografía, simulaciones, etc) que los computadores binarios.

Útil: 1, De acuerdo: 1, Discrepo: 0, Ortografía: 0

5 : ovel  (1020 comentarios)

29/10/2014 2:32:35
Me parece una propuesta muy interesante en verdad (si realmente es efectivo), ya que los programas que aprovechan el muntinúcleo no son abundantes y aún hay mayoría de programas que sólo usan un núcleo quedando buena parte de la potencia de nuestros micros desperdiciada, al trasladar parte de la potencia de los demás núcleos al núcleo activo realmente podemos aprovechar mayor parte del potencial total del micro y aún está en fase inicial, por lo que la mejora a futuro puede dar mucho más de sí.

Saludos.
Útil: 0, De acuerdo: 1, Discrepo: 0, Ortografía: 0
Últimas noticias
  • El nuevo God of War se ha retrasado a 2026
  • Windows 11 24H2 todavía se bloquea con estos SSDs
  • Consigue gratis el videojuego The Operator en la Epic Games Store
  • Battlefield 6 soportará DLSS 4, tendrá modo Battle Royale
  • Rendimiento de Dune Awakening, uso de la CPU y consumo de VRAM
  • ASUS 3000W, una fuente de alimentación que puede con cuatro GeForce RTX 5090
  • GeForce GTX 1060 de 6 GB en 2025, ¿puede con juegos actuales?
  • DOOM The Dark Ages: rendimiento con path tracing
  • GeForce GTX 1080 TI en 2025, ¿cómo se defiende esta veterana?
  • FSR 4 funciona en una Radeon RX 7900 XTX, pero con peor rendimiento
Top noticias
  • Nuevas patentes muestran las mejoras revolucionarias de GTA VI
  • Rendimiento de la Radeon RX 9060 XT, más lenta que la Radeon RX 7700 XT
  • Compra una Zotac GeForce RTX 5090 y recibe una caja llena de mochilas
  • Intel anuncia nuevos procesadores Intel Core Ultra de gama de entrada y para estaciones de trabajo
  • AMD lista el Ryzen 5 5500X3D, especificaciones
  • SteamOS a prueba en un PC gaming económico
  • Rockstar tiene problemas con el final de GTA VI: no sabe cómo terminar el juego
  • GeForce RTX 2080 en 2025, ¿puede aguantar todavía el tipo en juegos?
Noticias 3D
  • articulos
  • drivers
  • foro
  • tags
  • contacto
  • publicidad
© Copyright 2000 - 2025 | nFinite9000 S.L. | Todos los derechos reservados | Aviso legal