Información como la que os traigo a continuación sirve para hacernos una idea de que los desarrollos de los grandes fabricantes de microprocesadores están muy por encima de lo que nos enseñan a nivel doméstico. Se trata de un ordenador funcionando con un total de 24 núcleos de forma simultánea.
Se trata de cuatro CPUs AMD Istanbul, a razón de seis núcleos (reales, no emulados) por cada procesador. Los AMD Istanbul pertenecen a la gama Opteron, que es la plataforma para grandes servidores y máquinas muy concretas. En el caso que estamos tratando, AMD ha mostrado este equipo con 24 núcleos en una feria, en parte tal vez para contraatacar a Intel, que hace algunas semanas mostró otro equipo con micros Xeon de ocho núcleos.
La plataforma AMD Istanbul consta de microprocesadores en 45 nanómetros, para el socket 1207 y con compatibilidad por ahora con memorias DDR2. Se espera su llegada al mercado en los primeros meses del 2009, y ya de cara a finales de año vendría una revisión de la misma plataforma pero con compatibilidad con memorias DDR3 y el uso del socket AM3.
Como ya comenté al inicio, podemos utilizar este tipo de muestras para ver cuál es la tecnología más puntera de los grandes fabricantes. Estos seis núcleos por CPU no están muy lejanos de lo que ya manejamos actualmente, que vendrían a ser los microprocesadores quad-core con cuatro núcleos, aunque lo que sí es bastante más utópico es la utilización a nivel doméstico de placas para varios procesadores simultáneamente. Por ahora, todo lo que hay de este estilo está únicamente orientado a grandes servidores para usos muy específicos.
Actualmente en el ámbito doméstico, lo más que podemos tener son los Core i7 de Intel, con cuatro núcleos que gracias a la tecnología Hyper-threading emulan ocho en los sistemas operativos. Sin embargo, las malísimas noticias son que el software actual no está implementado para utilizar toda esa gran cantidad de núcleos. De hecho, la gran mayoría de programas utilizan uno… y un pequeño porcentaje utilizan dos. ¿Para qué querremos tantos núcleos si los sistemas no los pueden utilizar?. En fin, que eso es otro debate que algún día plantearemos más a fondo.
Vía | Nordichardware.
Más información | TheTechReport.
Ver 25 comentarios
25 comentarios
extra3rres3
El problema de los GB: antes un cliente decía quiero que me hagas tal chorrada en esta aplicación, se le decía:6 meses - 12000 Euros, ahora si quieres trabajar tienes que decir: 3 días, 120 Euros, eso conlleva a utilizar herramientas de muy alto nivel que generan una barbaridad de código pero en un tiempo record de desrollo, además tener en cuenta cualquier tipo de optimización es imposible. El problema de los nucleos: lo primero es que no todas las aplicaciones pueden aprocechar vaior nucleos, es decir, no son paralelizables. Las aplicaciones que si son paralelizables so una minoría y la mayoría de ellas son aplicaciones científico-matemáticas, además que su grado de dificultad a la hora de programarlas es directamente proporcional al número de núcleos para la que se haga. No se puede plantear un juego que aproveche 2 nucleos y también 4, y tambien 8 ... porque un problema puede ser ideal para 2 nucleos pero totalmente ineficaz para 4. Lo bueno que veo en la informática domestica o de oficina es que por ejemplo 4 nucleos te permiten estar haciendo listados de una base de datos mientras comprimes 3 archivos RAR y escribes un documento sin que la máquina se quede bloqueada, es decir, el "multinucleo" ha permitido una mejora impresionante en la multitarea a nivel de aplicación, pero no a nivel doméstico y de proceso.
Vaya rollo he metio. Saludos.
Joan Segura
En el camino hacia "quien la tiene más grande" nos estamos olvidando de que lo importante es que las tareas se realicen de la forma más eficiente posible y este cometido está siendo abandonado, cada vez más, por los fabricantes de S.O. y software en general.
Cada vez recuerdo con más admiración esas pequeñas joyas de la programación que eran los juegos de Spectrum, Commodore, etc. En 48 o 64 KB cabían auténticos hits. Hoy día, para todo necesitamos GB y más GB. Deberíamos comenzar la revolución al revés.
elnomada
Y luego estamos los que trabajamos con Mac OS X y si aprovechamos los 8 núcleos del Mac Pro... Al menos en la aplicaciones profesionales, pero claro, nadie se compra un Mac Pro para navegar por Internet o para Messenger.
Un saludo
juancmb2
esto me recuerda a las camaras de fotos. Todos los fabricantes luchan por sacar mas y mas megapixeles como si eso asegurara mejores fotos y los que no tienen idea creen en la idea de mas megapixeles = mejor foto. aqui se repite lo mismo "mas nucleos = compu mas rapida."
al-aziz
@10 dark_mind.
Era ironía. Mis discupas si no quedó claro en la segunda parte del comentario.
Recuerdo que en la presentación del Pentium a 66 Mhz (el comentario fué "necesita un ventilador para el solo, porque sinó se quemaría") alguien dijo que eso no se vería en los ordenadores domésticos.
Mi sensación, por mi experiencia observando este mercado, es que lo que hace avanzar al hardware doméstico no son ni los sistemas operativos, ni el software científico, ni las máquinas virtuales... Lo que hace avanzar al hardware doméstico son: LOS JUEGOS!
¿No tenéis vosotros esa sensación?
ferdy182
.
¿Pues quizá para que se repartan todos los procesos del sistema y se ejecuten en paralelo?
¿Para qué querría una residencia(cpu) 4 lavadoras(cores)? Pues para lavar la ropa de 4 personas(procesos) simultaneamente, obviamente...
aplatanado
Me hace gracia el comentario de #2. ¡Como si en el resto de los SO las aplicaciones profesionales no aprovecharan los núcleos del sistema! Se aprovechan tan bien o tan mal como en un Mac.
satelitepro
Mientras sigan sacando Hardware del 2009 con Software del 2000, no haremos nada y me refiero, a que la mayoría de Software a penas está optimizado para 2 núcleos, se sigue recomendando para jugar los Dual Core y no los Quad, así que 20 y tantos núcleos sean reales o virtualizados es algo absurdo...a día de hoy y lo malo, es que luego vendrá Intel sacando algo superior, todo, para nada por que como digo, el Software no lo aprovecha.
Un saludo.
AirieFenix
Sorprenderme, en realidad, no me sorprende, servidores multi-núcleos hubo, hay y habrá. Y si comparamos estos números (24 núcleos, seis núcleos por micro) con los de superordenadores y los del Cell o el Intel Xeon, respectivamente ni siquiera son sobresalientes. Lo que si es una lástima es el poco aprovechamiento de los multi-núcleos que vemos en PCs hogareñas. Bueno, misma historia para los procesadores de 64 bits.
Pablo Espeso
Ninor, te estás pasando la arquitectura de computadores y la arquitectura de software por el forro. Eso de "cuantos más núcleos, mejor" no es cierto, ya que el software actual no está implementado, en la mayoría de los casos, para manejar ni cuatro ni ocho núcleos.
Eso de que hay servicios que van corriendo simultáneamente en un S.O. no es cierto. Parece que se ejecutan a la vez, pero en la realidad todos están manejando un único núcleo, a razón de una instrucción por cada ciclo de reloj.
Es algo complejo, te recomiendo que te informes, porque no es como para meterlo todo en un comentario. De todas formas, lo que comentas no es cierto bajo ningún caso (exceptuando muy determinados programas que sí están optimizados para varios núcleos. Pero no son ni el 1% del total de programas).
Pablo Espeso
ferdy182, esa es muy buena teoría, pero en la práctica el software no puede utilizar todos esos núcleos.
Digamos, siguiendo tu ejemplo de residencia y lavadoras, que los residentes tienen las cuatro lavadoras pero no saben utilizar más que una o dos. Esto es una realidad, y los usuarios no pueden hacer nada más para aprovechar todas las lavadoras.
dark_mind
@4 Al-aziz
Que sean afirmaciones proféticas no significa que ahí se quedarán.
Yo creo que sí tendremos esa capacidad los usuarios domésticos dentro de algunos años... ¿cuánto? ni idea. Tal vez en unos 10 años estemos moviéndonos alrededor de los 20 núcleos!
Si ya llegamos a 6 físicos y 8 emulados pues, no estamos muy lejos en tener 10. Unos 2 años más y tendremos 10. Y así, poco a poco, en UN SÓLO PROCESADOR.
¿Cuándo lo tendremos? Yo ya di mi predicción!
Saludos!
dark_mind
@12 Al-aziz:
Ah, entonces lo entendí mal. Una disculpa!
Ya asistiremos a la presentación de 100 núcleos algún día...
Lean mis letras!!!!! (jaja).
Saludos!
ninor
Whiskito, si para algo sirve tener más CPUs, es para ejecutar más programas a la vez.
En cualquier sistema operativo de escritorio (Linux, BSD, Win, Mac, ...) hay infinidad de servicios que van corriendo simultáneamente junto con los programas "de usuario", y cada programa puede correr en una CPU diferente.
Mi opinión como usuario es que prefiero una CPU con muchos núcleos, y que cada programa sea sencillo, a un programa tan complejo que sea demasiado caro o que esté "petando" constantemente.
Un saludo
al-aziz
"(...)aunque lo que sí es bastante más utópico es la utilización a nivel doméstico de placas para varios procesadores simultáneamente. Por ahora, todo lo que hay de este estilo está únicamente orientado a grandes servidores para usos muy específicos.(...)"
Ah! Que nostalgia! Hacía tiempo que no veía una afirmación así en una publicación sobre informática. Creo que la última vez fue con motivo de la aparición del Pentium a 66 MHz. También en ese momento alguien aventuró una afirmación profética como esa.
Intel i7
Madre de dios!
plastelino
Estoy acostumbrado a trabajar con maquinas multiprocesador desde hace unos cuantos años, y me parece un poco bastante absurdo el temita de si el S.O. aprovecha o no todos los nucleos..., excepto en contadisimas ocasiones en las que prima el calculo cientifico y/o la investigación, es raro encontrarse con más de dos o cuatro nucleos trabajando en paralelo; normalmente los procesadores de la máquina se suelen dividir entre las muchas máquinas virtuales que se alojan dentro de un solo servidor, incluso es bastante normal ver una máquina virtual que funciona con una decima parte de un procesador.
69man
aguante la amiga de 1 mb de ram y floppy externa
al-aziz
...y en cuanto a predicciones del año anterior o el otro, no estaría de más que alguien explicara la ley de Moore y -aunque no se trata de un teorema- sus corolarios.
Cualquier comentario profético queda empequeñecido ante el principio postulado por el Sr. Moore, hace ya casi medio siglo:
http://es.wikipedia.org/wiki/Ley_de_Moore
No es así?
Saludos!
Andrei
Pues al menos en Windows Vista entrando en "Administrador de tareas de Windows" en la pestaña "Procesos" haces clic secundario en el proceso y luego en "Establecer afinidad..." y seleccionas los núcleos que quieres que el programa utilice.
Isra
Qué bueno el comentario de elnomada, siempre tiene que haber un sectario maquero que se crea superior al resto de la humanidad :-P (no es por ser troll).
Guerras seculares aparte, está claro que la cantidad de núcleos no es tan importante como se cree. Es una situación similar a la carrera de los nanómetros, cuando se acerca el límite se van a otras cuestiones. Cuando se alcance el límite de núcleos (un chip de 20 núcleos... no sé yo cómo de grande sería, la energía que chuparía y si sería viable desde el punto de vista de la arquitecta) se irá a otra cosa. Coincido en que los fabricantes deben atacar cuestiones de optimización en los caminos de datos y el diseño de las instrucciones. Ya hay avances como en su día el Hyper Threading, la optimización para virtualización que está haciendo AMD, etc
macjpu
Y cuando Apple lance Snow Leopard que, precisamente, busca mejorar el aprovechamiento de los ordenadores con varios núcleos, saldrá la peña diciendo que menuda mierda de sistema que no añade nada.
macjpu
Sigo si entender el comportamiento de ciertos fabricantes. Canon tiene en su mano la compacta perfecta, si a su G10 le pone un sensor de 8 Mp en vez de los 15 que le ha puesto. Y no me vengáis diciendo que entonces no vendería reflex porque todos los que tenemos una reflex iríamos corriendo a comprar, además, una G10.
jayjayjay_92
Habria que ver si compensa o no... @23 ayrton y pa que quieres mas de 8mpx?
arvmetal
Para los que se preguntan para qué tantos nucleos, es porque están acostumbrados a las aplicaciones hechas para mortales, como IE, word, etc., en ese caso son inútiles, pero claro que son bienvenidos en aplicaciónes profesionales, donde un solo core es un infierno, como: maya unlimited, houdini, softimage, 3ds max, fusion, flame, vue xStream, pro tools, simuladores de fluidos y efectos climatológicos, etc... Todas estas apliciones si están optimizadas para múltiples nucleos.