Pirate World
Pirate World  
  Home
  ¿Hacker?
  Software
  Diccionarios de Passwords
  Hacking Hardware
  => RADEON 9500
  => nForce 4 Ultra
  Malwares
  Phreaking
  CD-ROM's
  Videotutoriales
  Scam
  Manuales
  Contacto
  Encuestas
  Sitios Amigos
  Miembros
  AVISO LEGAL
Copyright © 2010 by Pirate World Site.
Hacking Hardware
 HACKING HARDWARE

“¿Hackear el hardware? ¿Qué demonios es eso?”, se preguntarán muchos de ustedes. Es una forma atráctiva de reunir, en una sola acción, las diferentes técnicas que se utilizan para realizar modificaciones de hardware, ya sea mediante cambio de conexiones físicas como variando su configuración de bajo nivel. El objetivo siempre es el mismo: obtener el mejor rendimiento que se pueda y optimizar las posibilidades de nuestro hardware.

Básicamente, lo que tratamos en esta sección (sumamente practica, pero con una buena dosis de teoría, para comprender lo que estamos haciendo) es aprovechar y hacer todo lo posible para personalizar nuestro equipo, sin temor a equivocarnos (bueno un poco tal vez) y sin nos importe el hecho de perder la garantía del fabricante.

¿Cómo subdivídemos esta sección? Comenzaremos hablando de fundamentos básicos, para entender cómo funcionan los componentes que vamos a modificar y porque podemos hacerlo; mas adelante, daremos algunos trucos útiles para el motherboard y la fuente de alimentación, que nos servirán para resolver algunos problemas comunes en la instalación de un nuevo hardware. Segundo pasó, procederemos a realizar una guía de overclocking y optimización de las dos plataformas actuales: Pentium 4 y Athlon 64. Terminaremos hablando de placas de video, donde hay mucho para hacer, y con bastante fisicidad. Por cierto también hablaremos de ordenadores viejos y que podemos hacer con ellos.


FUNDAMENTOS

Dado el avance en inteligencia que poseen los chipsets modernos (especial, aquellos que solucionan el northbridge y el southbridge en un único chip, como es el caso del NVIDIA nForce3 y nForce4 para Athlon 64) y los procesadores gráficos presentes en casi todas las placas de video del momento (incluso las de gama baja), podemos decir que dificultad, casi uniformemente, en los diferentes módulos que conforman la PC.

Así que tanto la fabricación de microprocesadores como de chipsets y GPUs es casi igual de complicada. Podríamos pensar en la fabricación de semiconductores como en la de galletitas: todas salen de un mismo molde, que se recorta para formar cada unidad. Es muy común que las galletitas difieran bastante de las que se ven en el envoltorio (que son perfectas y mucho mas tentadoras); incluso, algunas de ellas bastante deformes. Sin embargo, en general no nos quejamos y las comemos igual.

Pero, en los semiconductores, no existe tal grado de tolerancia; en verdad, casi diríamos que no hay tolerancia alguna: cualquier transistor malformado hace que la unidad en la que se encuentra deba ser desechada (nunca tiren nada, todo a su futuro servirá de algo).

Como ese caso, pude haber varios dentro de un wafer (oblea circular de conde salen muchos chips similares), lo cual disminuye bastante el rendimiento de la producción. Asimismo, si multiplicamos esos problemas por todas las líneas de producción (productos distintos), obtenemos un número bastante grande, para nada deseable por parte de las compañías.  Entonces, la solución parcial que ellas encuentran es realizar sus chips de forma tal que, en caso de error, sea posible desactivar ciertas utilidades de él y, entonces, se vendan como un producto de características reducidas. Lo mismo ocurre si la performance de un chip no le permite alcanzar las especificaciones de trabajo óptimas, por lo cual se le debe reducir la frecuencia de clock nominal, para así salir al mercado como un componente más “modesto”.

TRANSFORMACIONES

Por lo que hemos explicado debemos saber que es muy probable que un Athlon 64 3000+ y un 3800+ hayan salido del mismo wafer, pero que uno de ellos no este certificado para operar a la frecuencia del otro. Así que, con algo de overclocking y (probablemente) un incremento de la tensión, es posible devolverle a ese 3800+ recortado su mejor rendimiento. Es cierto que la vida útil de ciertos componentes dentro del microprocesador puede verse afectada por ese incremento de tensión, pero también debemos tener en cuenta que otros elementos necesitan de ese incremento para funcionar con estabilidad; por lo tanto, estamos ante una paradoja acerca de si lo que estamos haciendo es overclocking o “des-underclocking”. Por ende, nunca se sientan culpables de overclockear una CPU.

Pero no sólo puede ocurrir que un chip no esté certificado para trabajar a una cierta frecuencia, sino que también es posible que algunos transistores que lo integran estén fallados y no sean capaces de operar de ninguna forma. De tal manera, las unidades del chip que dependen de esos transistores deben ser desactivadas por el fabricante y, así, las posibilidades del chip son reducidas.  

Sin embargo, esto no siempre sucede: en muchas ocasiones, los fabricantes deciden des activar ciertas funciones por cuestiones de marketing. Por ejemplo, todos los chipsets NVIDIA nForce4 salen de la misma línea de producción, sólo que el Ultra tiene desactivado el soporte para SU, y el nForce4 "a secas" también tiene des activado el soporte a Serial ATA 11; simplemente, descubriendo la forma en la que NVIDIA ha deshabilitado estas funciones, podríamos realizar el proceso inverso y transformar el chipset en uno más poderoso.

¿ASÍ DE SENCILLO ES?

Bueno... en muchos casos, no todo están fácil, ya que a veces los fabricantes se esmeran un poco más en evitar que los usuarios avanzados descubran la manera de convertir un producto económico en otro más caro, con lo cual esta técnica se vuelve imposible. Pero, en otras ocasiones, no les interesa: volviendo al caso del nForce4, a NVIDIA no le importaba proteger mucho a sus chips, ya que ni se imaginaba que ciertos fabricantes de motherboards realizarían productos basados en el nForce4 Ultra con dos slots PCI Express x 16, posibilitando el uso de SLI con ciertas modificaciones al chipset. Pero la suposición fue mala, ya que empresas como DFI siguieron su misma filosofía de usar una sola línea de producción para muchos componentes, y así fue como utilizaron el mismo PCB para las versiones Ultra y SU de sus motherboards basados en nForce4. Tiempo más tarde, lanzaron una nueva revisión de los nForce4 en los que ya no se podía hacer esto (puesto que los drivers de NVIDIA detectaban el modelo correcto).

Algunos podrán decir: "Ay, ¡pero qué idiotas! Los fabricantes hacen eso sabiendo que muchos vamos a conocer la forma de arruinarles el negocio". Y es cierto, pero la verdad es que no somos tantos en relación con el mundo entero, y a las empresas les resulta más rentable ahorrar ese dinero en el rendimiento de su producción de chips, que invertir en más líneas de producción y evitar que los usuarios informados hagan las "transformaciones" mencionadas en este artículo. Así que, aprovechemos nuestra condición de "usuarios informados" y comencemos a mejorar nuestro hardware, ya sea optimizándolo "legalmente" como realizando modificaciones clandestinas.

CONSEJOS SOBRE EL SOFTWARE

Vamos a dedicar unas líneas a dar unos pequeños consejos con respecto al software. Sabemos que, sin él, el hardware no serviría de nada, así que es importante tenerlo siempre lo más optimizado posible.

ELECCIÓN DE LOS DRIVERS

Un pensamiento lógico es creer que, siempre, los drivers actualizados son mejores que los anteriores, algo coherente ya que se supone que las compañías se esfuerzan por solucionar incompatibilidades con determinado software y mejorar el rendimiento de sus' productos. Pe-
ro, en realidad, no siempre es así, porque
los fabricantes suelen darles más importancia a los productos más nuevos, dejando de lado a los anteriores (que ya son más "robustos" a nivel software y no necesitan optimizaciones). Obviamente, esto no está para nada mal; sin dudas, no tendría sentido seguir intentando mejorar lo inmejorable. El problema surge cuando se modifican funciones de los drivers que "rozan" con las características de las viejas placas. Por ejemplo, a veces se cambia un parámetro que es más conveniente para una GPU moderna, pero que, en realidad, empeora el rendimiento en alguna de gama baja. Por eso, no nos queda más remedio que correr algunos benchmarks con el driver antiguo y con el nuevo, a fin de comprobar si realmente notaremos mejoras en la performance o ésta decaerá. Por cierto, es conveniente no usar los benchmarks sintéticos tradicionales sino aplicaciones reales (como puede ser Doom 3 y Half-Life 2, la conversión de un DVD a DivX o el traspaso de archivos de un
disco a otro)
, ya que los fabricantes tienden a buscar que sus drivers ofrezcan mejores resultados en los benchmarks comunes, para causar mejor impresión a los usuarios.

TO REINSTALL, OR NOT TO REINSTALL

Otra cuestión interesante es si la misma instalación de Windows puede vivir más de uno o dos meses, y también si es posible que resista a un cambio de hardware sin degradar el rendimiento. La verdad es que, si somos muy puristas, podremos encontrar alguna pequeña diferencia en el rendimiento a medida que vamos instalando y des instalando drivers. Sin embargo, haciendo algo de limpieza del Registro (proceso para nada complicado, que se puede hacer con cualquier programa creado para tal fin) se puede recuperar tranquilamente.

El problema principal surge cuando vamos instalando y des instalando muchos programas y, poco a poco, comienzan a aparecer los famosos spyuiares y aduiares. Este tipo de programas puede ser crucial para el rendimiento de la PC, a tal punto que una potente limpieza en los procesos activos puede mejorar la potencia hasta el doble, sobre todo, en procesos de carga de archivos y en aquellos que hagan uso intensivo de la memoria RAM, como ocurre en las tareas habituales.

Nuestra recomendación es que busquen el punto medio: no es bueno tener la misma instalación de Windows durante más de 6 meses si nos la pasamos probando cosas e instalando nuevo hardware en la PC; pero tampoco hay que ser exagerados y formatear el disco duro una vez por día (como hemos hecho muchos de nosotros en nuestros peores momentos), porque no tiene mucho sentido. Lo más importante es utilizar perdicamente software de limpieza y optimización, y tratar de evitar que se metan en nuestro equipo los "malwares" o, al menos, que se propaguen.

Planteadas estas consideraciones con el software, comencemos a hablar sobre el hardware, que es lo que máAs nos interesa


TOCADO EL MOTHERBOARD

Antes de realizar cualquier overclocking u optimización de la configuración, es importante buscar la manera de que el hardware de la PC trabaje lo mejor posible. Para hacerlo, debemos tratar de mejorar la disipación térmica. Aquí veremos algunos consejos para lograrlo.

En primer lugar, debemos mencionar algo que parece obvio, pero que es muy importante: antes de hacer todas las modificaciones que explicaremos en lo que resta de la nota, es preciso tener en cuenta que perderemos automáticamente toda garantía que haya sobre los componentes involucrados. También vale mencionar que no nos hacemos responsables por los daños que puedan causar estas técnicas, ya que si bien las hemos probado con anterioridad, mucho depende, también, de factores externos que habrá que considerar en cada caso individual. Hechas estas aclaraciones, ya podemos empezar a hablar de la optimización de nuestro hardware.

MEJORAR LA TEMPERATURA

Todos sabemos que la refrigeración es muy importante, porque la temperatura es un aspecto que afecta bastante el funcionamiento de los semiconductores. Superados ciertos valores (unos 120'C), la concentración de portadores de carga que se encuentran en las junturas de los transistores crece exponencialmente, y provoca anomalías en su funcionamiento y desincroniza las conexiones entre las distintas partes del chip. Así es que, si bien es cierto que en condiciones normales de trabajo se registran temperaturas de entre 40 y 60'C dentro de una CPU, hay que tener en cuenta que ésta no es uniforme, sino que varia un poco en cada parte. Por lo tanto, puede que algunas zonas estén fallando y otras no, por lo cual se producen errores en el funcionamiento del chip. Esto tiene relación directa con el overclocking: algunos sectores de la CPU pueden funcionar a una determinada frecuencia, pero otros necesitan mayor tensión para alcanzarla sin problemas, de modo que deberemos incrementar la tensión en todo el chip para llegar correctamente a la frecuencia deseada.

Así que, ante todo, es muy importante mantener bien refrigerado nuestro equipo. Tal vez no sea necesario colocar un cooler muy caro, o un costoso sistema de refrigeración por agua, si no vamos a hacer lo que se denomina "extreme overclocking", Sí es importante saber qué zonas refrigerar, y de qué manera hacerlo.

EL CHIPSET

Dentro del motherboard, hay varios componentes que son importantes para refrigerar, sobre todo, si vamos a hacer overclocking. Lo que más interesa refrigerar correctamente es el chipset, en particular, el puente norte [Northbridge], aunque últimamente el Southbridge también calienta bastante, debido a su alta integración de funciones. Por lo general, y salvo casos realmente extremos, las soluciones de refrigeración que se incluyen con los motherboards son bastante adecuadas, incluso al aplicar un más que decente overclock (con incremento de tensión si fuera necesario). El problema se registra, normalmente, en la superficie de contacto del disipador con el chip. Los fabricantes suelen utilizar una pasta térmica adhesiva entre el núcleo del chip y la superficie del disipador, que es bastante buena, pero dista mucho de ser óptima. En algunos casos, es perjudicial para el chipset, y puede ocurrir que éste no llegue a funcionar correctamente a su máxima frecuencia (éste era el caso de muchos mothers basados en el SiS 735). Lo que nosotros recomendamos es quitar esa pasta térmica (es bastante sencillo) y limpiar tanto el disipador como la superficie del chip. Luego, ponemos una gota (y un poco más) de grasa siliconada sobre el núcleo y la esparcimos uniformemente sobre él. Para terminar, en caso de que el disipador no tenga otro soporte más que la pasta térmica que eliminamos, aplicamos dos pequeñas gotitas de adhesivo de contacto con alta resistencia térmica (una en cada diagonal del chip) y, rápidamente, apoyamos el disipador.

Por cierto, también resulta muy conveniente agregar un pequeño cooler (de los que se utilizaban en la época de los 486 y Pentium) sobre el disipador del chipset, si es que éste no posee uno.

REGULADORES DE TENSIÓN

El segundo punto más crítico para el overclocking dentro de un motherboard es la etapa de regulación de tensión del procesador. Como ya mencionamos en ediciones anteriores, los reguladores de tensión son unos MOSFETs (transistores de efecto de campo) ubicados cerca del zócalo de la CPU, acompañados de capacitores e inductores (bobinas). Estos chips son vitales debido a que de ellos depende la energía que se le entrega al microprocesador, y son más exigidos en cuanto vamos incrementando la tensión y la frecuencia de trabajo. Por tal motivo, son chips que calientan mucho y, por eso, es altamente aconsejable colocarles un disipador encima. Creemos que lo más conveniente es conseguir un pequeño disipador de 486 y cortarlo en cubos que correspondan, más o menos, al tamaño de los reguladores. Para colocarlos, podemos seguir los mismos pasos que explicamos para el chipset.
Por cierto, estos chips también están en las placas de video, y son igualmente importantes, así que no está de más refrigerarlos mejor.

GENERADOR DE CLOCK

Por último, es preciso hablar del chip del cual dependen las frecuencias de trabajo. Este chip (que identificamos porque suele estar cerca de un cristal plateado de 14,318 MHz) es extremadamente importante para nosotros, porque el overclocking por frecuencia de FSB es lo más común y sencillo hoy en día. Notamos que muchos de ellos suelen calentar bastante cuando se los exige. En general, los generadores de dock provistos en los motherboards actuales soportan frecuencias más elevadas de las que se utilizan en la práctica, aunque en mothers más antiguos esta relación no se cumple. Por lo tanto, al exigir casi al límite al generador de dock, haremos que éste sobrecaliente y produzca errores cuando sobrepase una cierta configuración de frecuencias. En estos casos, recomendamos hacer lo mismo que a los reguladores.

PROCESADORES Y MEMORIAS

Ahora si debemos hablar sobre la manera de configurar nuestro Hardware para obtener un optimo rendimiento. Para lograrlo, haremos una guía basada en las dos plataformas principales de la actualidad: Pentium 4 y Athlon 64.


Como mencionamos al comienzo de este artículo, y teniendo en cuenta que las nuevas plataformas cuentan con menos información difundida sobre overclocking, aquí hablaremos, principalmente, de los Athlon 64 y Pentium 4 (y todos sus derivados, como el Sempron de Socket 754 y el Celeron de 1,7 GHz en adelante). No obstante, las herramientas y las técnicas detalladas en estas páginas pueden servir para realizar overclocking en las plataformas antiguas.

CONFIGURACIÓN DE LOS ATHLON 64

Como bien sabemos, los procesadores de la arquitectura K8 tienen el controlador de memoria integrado. La ventaja principal de esta integración es reducir los tiempos de espera entre que el procesador realiza una orden referente al acceso a la memoria y ésta se ejecuta realmente. Por lo tanto, podemos prever que el rendimiento de un equipo basado en este tipo de procesado res podrá variar bastante de acuerdo con las configuraciones de latencia que tengan los módulos de memoria RAM.

Por otro lado, y antes de metemos de lleno en las configuraciones óptimas de memoria para los Athlon 64, debemos recordar que la conexión del procesador al resto del sistema está dada por un enlace HyperTransport de 32 bits (16 en cada sentido) que trabaja, típicamente, a 800 o 1000 MHz. A decir verdad, poco nos interesa la velocidad de este bus, puesto que su ancho de banda (aún a 800 MHz) es ampliamente superior a lo que se requiere en operaciones normales; sin embargo, es importante tratar de que no supere demasiado esa frecuencia de trabajo, ya que es común registrar inconvenientes.

Ahora bien, ¿cómo se realiza la configuración de clock de los Athlon 647 Todo depende de una frecuencia base (Host bus o FSB), típicamente, de 200 MHz. De ella tenemos diferentes multiplicado res que nos dan la frecuencia de los tres componentes en cuestión: CPU (5x-24x), HT (1x-5x) Y RAM (1:2 a 5:4). Por cierto, la posibilidad de variar el multiplicador depende del procesador (es fijo en los de estabilidad en valores superiores a los 1300 MHz, y la mejora de rendimiento es prácticamente nula de Socket 754, desbloqueado por debajo del nominal en los Athlon 64 de Socket 939 y totalmente desbloqueado en los Athlon 64 FX), así como los divisores de la memoria (recién en los procesado res de núcleo Venice y San Diego existe un divisor superior al 1:1.

CONENZANDO EL TUNING

El primer problema que surge es por dónde empezar para optimizar el equipo mediante overclocking. Si nuestro procesador tiene el multiplicador bloqueado, no quedará más remedio que subir el FSB hasta que ya no resista la tensión propuesta; no esperemos mucho más qué 2,2 o 2,3 GHz en un procesador de Socket 754 (exceptuando los nuevos Palermo, de 90 mm).
Por cierto, inicialmente debemos tratar de mantener la memoria y el HT lo más bajos posible (colocando un divisor de 1:2 o 2:3, y un multiplicador de HT en 3x), para que el límite siempre esté dado por la CPU.

En los procesadores que tienen el multiplicador desbloqueado, nos conviene tratar de encontrar primero el límite del chipset: colocamos el multiplicador de la CPU en 5 o 6x y vamos subiendo el FSB hasta detectar problemas de estabilidad. Normalmente, los chipsets alcanzan 250 MHz; los nForce3 y nForce4 son los mejores debido a que pueden llegar a 300 MHz sin problemas (e, incluso, hasta 350 MHz en algunos casos). Una vez que encontramos este límite, dividimos la frecuencia nominal de la CPU por este nuevo valor de FSB y obtenemos el multiplicador correspondiente, tras lo cual vamos subiendo de a poco hasta conseguir el límite del procesador. Por ejemplo, si tenemos un Athlon 64 3200+ (2000 MHz, 200 * 11) Y alcanzamos un FSB máximo de 250 MHz, hacemos 2000 I 250 Y obtenemos el multiplicador que corresponde a la frecuencia nominal. Luego, probamos con 9x, 10x, y así sucesivamente, incrementando la tensión si así lo deseamos (hasta 0,3 V por encima del están dar es el límite máximo recomendado); recordemos que lo que más afecta la vida útil del procesador es la tensión, no tanto así la frecuencia de trabajo. Si usamos una memoria DDR400, en este caso, deberíamos usar un divisor de 4:5 para que siga trabajando a 200 MHz.

FRECUENCIA VS. LACTENCIA

El Athlon 64 es altamente sensible a la velocidad de la memoria RAM. Por ese motivo, no es recomendable hacer que ésta trabaje a una frecuencia más baja que la del FSB. Sin embargo, no hay que descuidar los timings de la memoria, que son aún más importantes que la frecuencia de trabajo de ésta. Por cierto, para saber más acerca de los timings, podemos revisar la nota sobre memoria. Aquí los mencionaremos en el siguiente orden (que es el estándar): tCL-tRCD-tRP-tRAS-Command Rate.

Hay que buscar la mejor relación posible entre frecuencia/latenda: por ejemplo, puede que una configuración 2.5-3-3-8-2T a 250 MHz (DDR500) brinde una performance mayor que la de 2-2-2-5-IT a 200 MHz (DDR400), pero es muy probable que una de 2-3-3-7-IT a 230 MHz (DDR460) sea mejor que las anteriores.

Como podemos apreciar en la tabla correspondiente, realizamos pruebas en dos benchmarks picos para notar la diferencia de rendimiento al variar uno solo de los parámetros. Obviamente, no hay ventajas muy notorias en la práctica, pero con estos números podemos ver a qué parámetros apuntar cuando realicemos "undertiming" de la RAM. Así se observa que la ventaja de una configuración con timings muy ajustados (2-2-2-5-IT) es bastante importante respecto a la media (2.5-3-3-7-2T) y la nominal de las memorias económicas (3-3-3-8-2T). Seguramente, se preguntarán si es necesario adquirir módulos de gran calidad o poner disipadores en la memoria. Con respecto a este último punto, creemos que es realmente necesario sólo cuando necesitamos incrementar la tensión de la RAM para obtener una cierta
configuración; de lo contrario, no suele ser tan importante. Hablando del primer punto, es cierto que módulos "de marca" (como Corsair, Kingston y OCZ) pueden ofrecer mayores posibilidades, pero también hay. Que reconocer que muchos módulos genéricos son capaces de funcionar con latencias bastante apretadas, incluso, sin subir la tensión.

Es posible notar que el parámetro fundamental es el Command Rate, siendo el que mayor diferencia demuestra al variar de 1 T a 2T. En segundo lugar, tenemos al más conocido por todos, la CAS Latency (tCL). Por otro lado, RAS-to-CAS De/ay (tRen) no muestra grandes variaciones, mientras que RAS Precharge (tRP) y RAS Active Time (tRAS) son los valores menos importantes en el rendimiento. Por lo tanto, el énfasis debe estar en los dos primeros mencionados, y a los otros se los puede dejar más relajados, para aumentar estabilidad.

FINALIZAR LOS AJUSTES

Para terminar con la configuración, hay que tratar de encontrar el mayor balance entre FSB y memoria, que nos permita usar la RAM con una buena combinación de latencias y frecuencia, y para que el procesador sea explotado al máximo posible. A veces es conveniente sacrificar unos 50 o 100 MHz en el procesador a cambio de un 10% de mejora en la frecuencia de la memoria, aunque siempre depende del caso, y es conveniente realizar benchmarks en todo momento. Por cierto, no se crean que la configuración termina aquí: es importante tocar un poco los timings especiales que se pueden configurar en el controlador de memoria de los Athlon 64, los cuales pueden mejorar un poco el rendimiento o bien sumar estabilidad en el overclock, sin mayores pérdidas en la performance.

OVERLOCKING EN LOS PENTIUM 4

Ya hemos visto el método que nos parece más conveniente para realizar overclocking y optimizar la configuración en computadoras basadas en procesadores de la arquitectura K8. ¿Y qué pasa con aquellas que tienen un logo de "Intel Inside" en el frente de su gabinete? Para empezar, debemos decir que, si bien el multiplicador de todos los procesadores de Intel se encuentra totalmente bloqueado (salvo en ciertos casos, en los que puede variar entre dos valores), las posibilidades de overclock en sus procesadores son tan buenas como en los de AMD, siempre que se tengan dos condiciones fundamentales: componentes acordes y algo de suerte. Según nuestra experiencia, tanto con los núcleos Northwood como con los Prescott hemos tenido muy buenos resultados: casi sin incrementar la tensión, nuestros Pentium 4 de 2,8 y 3,2 GHz han alcanzado, respectivamente, 3,3 y 4 GHz con total estabilidad, usando un cooler que viene con el procesador. Esto equivale a un 18 y un 25% de diferencia de frecuencia de reloj.

Obviamente, el overclock se debe realizar exclusivamente mediante FSB, así que las posibilidades están limitadas por el northbridge del chipset que tenga el motherboard (por eso puse tanto énfasis en la refrigeración de este componente al comienzo de la sección). Si bien la configuración de la RAM depende del controlador de memoria que incluya el chipset, típicamente tenemos varios divisores, de modo que podemos seguir la técnica explicada para el caso de los Athlon 64 e intentar llegar al máximo FSB posible usando el divisor de memoria más pequeño.

Por lo general (y con paradoja incluida), los chipsets con mejores posibilidades de overclock son los fabricados por la misma Intel: los 865, 875, 915 Y 925 no suelen tener inconvenientes para subir de los 200 MHz están dar hasta 250 MHz, e incluso a 266 MHz con algo de tensión y refrigeración extra.

CONFIGURACIÓN DE LA MEMORIA

Hasta aquí, no observamos ninguna dificultad para interpretar cómo conviene realizar el overclocking en procesadores Pentium 4 y Celeron. Lo que nos queda ver ahora es un tema bastante importante: la memoria RAM.

Sabemos que Intel ha tenido (al menos en esta plataforma) una política en la cual lo que interesa es obtener la mayor cantidad de ciclos por segundo, dejando un poco de lado la cantidad de instrucciones que se pueden ejecutar en cada uno. Es por eso que el uso de memorias DDR2 ha sido de gran beneficio para sus productos más nuevos, ya que pueden obtener unas frecuencias de reloj muy elevadas; si bien sacrifican un poco los tiempos de espera, la propia arquitectura de los Pentium 4 hace que este aspecto no impacte tan negativamente en la performance.

Por lo tanto, al realizar overclocking en este tipo de computadoras, lo que debemos priorizar es que la memoria funcione a la mayor frecuencia de trabajo posible, y que ésta no sea inferior al FSB del procesador. No hay que descuidar mucho las latencias, pero tampoco debemos preocupamos demasiado: según las pruebas que realizamos (tanto con DDR como con DDR2), la diferencia de rendimiento al pasar de timings muy relajados a otros bastante más ajustados no fue mayor del 2 o 3%, pero al subir la frecuencia (en un 25%), se registraron mejoras de un 5 a 7% (incluso usando timings bastante relajados).

No obstante, debemos aclarar que vimos estos resultados con chipsets de Intel, que son los más utilizados actualmente. Hemos observado que, en el nuevo nForce4 SU Intel Edition, las configuraciones de latencia son mucho más importantes, así que se debe tratar de buscar un punto medio entre frecuencia y latencia.



Welcome Aboard  
   
Publicidad  
   
Contador de Visitas  
   
Sitios Amigos  
 
Image Hosted by ImageShack.us http://labs.dragonjar.org/

 
Facebook  
   
Copyright  
 
Creative Commons License
Pirate-World by Pirate-World Site is licensed under a Creative Commons Reconocimiento-No comercial-Compartir bajo la misma licencia 2.5 Argentina License.
Based on a work at www.piratewordsite.es.tl.
Permissions beyond the scope of this license may be available at www.piratewordsite.es.tl

 
=> ¿Desea una página web gratis? Pues, haz clic aquí! <=