SciELO - Scientific Electronic Library Online

 
vol.7 issue2Face Recognition Using Unlabeled Data author indexsubject indexsearch form
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Computación y Sistemas

Print version ISSN 1405-5546

Comp. y Sist. vol.7 n.2 México Oct./Dec. 2003

 

Resumen de tesis doctoral

 

Diseño de Sistemas de Memoria Cache de Alto Rendimiento aplicando Algoritmos de Acceso Seudo–Especulativo

 

Design of High Performance Cache Memory Systems applying Pseudo–Speculative Access Algorithm

 

Graduated: Oscar Camacho Nieto
Centro de Investigación en Computación
Juan de Dios Bátiz s/n esq. Miguel Othón de Mendizábal
Unidad Profesional Adolfo López Mateos
Del. Gustavo A. Madero, México, D. F.

E–mail: oscarc@cic.ipn.mx

Advisors: Luis Alfonso Villa Vargas 1; Juan Luis Díaz de León Santiago 2 y Cornelio Yáñez Márquez 2
1 Instituto Mexicano del Petróleo
2 Centro de Investigación en Computación

 

Resumen

La diferencia que existe entre el tiempo de ciclo de operación del procesador y el tiempo de acceso a memoria cada vez es mayor. El rendimiento de los procesadores se ha venido incrementando aproximadamente un 60% cada año debido a la reducción del tiempo de ciclo de reloj y al incremento del número de instrucciones ejecutadas por ciclo (IPC). Sin embargo, el tiempo de acceso a las memorias DRAMS sólo mejora un 10% por año, aunque la capacidad se duplica cada año y medio, según la Ley de Moore. Para reducir esta diferencia de tiempos se utiliza una organización de memoria jerarquizada con el objetivo de que el nivel cercano al procesador (cache) almacene temporalmente el contenido de la memoria principal que se prevé pronto será utilizado. Los factores que afectan el rendimiento son: el tiempo necesario para obtener un dato de la cache y el número de accesos que se resuelven directamente desde la cache. Este trabajo se centra en incrementar la frecuencia de aciertos y reducir el tiempo medio de acceso en la cache sin incrementar el tiempo de ciclo del procesador, manteniendo dentro de límites razonables la latencia de acceso. Usando la capacidad de predicción que presentan las referencias a memoria para guiar la gestión y acceso al primer nivel en caches de acceso secuencial, proponemos un esquema dinámico e inteligente para acceder a la cache de datos del primer nivel en un sistema jerarquizado. La evaluación muestra que el esquema propuesto, con respecto a la cache convencional de mapeo directo, reduce el tiempo promedio de acceso en 14.71%, 11.47% y 12.80% en capacidades de 8k, 16k y 32k, respectivamente. Asimismo, nuestro esquema mantiene una tasa de fallos similar a la de una cache convencional asociativa de dos vías.

Palabras clave: Memoria cache, acceso seudo–especulativo.

 

Abstract

The gap between the cycle time of processor and the access time to memory go on being eminent. The processor performance increases about 60% by year because of reduction of cycle time and the rise in the number of instruction processed by cycle. Nevertheless, DRAM memories access time only reach an improvement about 10% by year although capacity is duplicate every one and a half year, according to Moore's Law . To reduce this contrast of times, a hierarchical memory organization is used, with the purpose that the level near to the processor holds the content of main memory that is foreseen to be referenced. The factors that affect the performance are the necessary time to get one data to the first level L1 the cache and the fraction of references satisfied from the cache. Our work consists in increase the frequency of hits and reduces the average memory –access time in cache, without increase the cycle time of processor supported inside limit fair the access latency. Using address prediction at capacity to guide the management and access to the firs level cache, in sequential access caches, we propose a dynamic and clever scheme to access caches memories. The evaluation shows that this scheme can achieve an average improvement in the average memory–access time of 14.71% 11.47% and 12.80% in caches of 8kb, 16kb and 32kb of capability respectively, over conventional directed mapped caches memories. At the same time, our scheme maintains the frequency of miss similar to the conventional 2–way associative cache memory.

Keywords: Memoria cache, acceso seudo–especulativo.

 

DESCARGAR ARTÍCULO EN FORMATO PDF

 

Agradecimientos

Los autores agradecen el apoyo de las siguientes instituciones: Banco de México, Secretaría Académica y COFAA del Instituto Politécnico Nacional y Sistema Nacional de Investigadores.

 

Referencias

1. Calder, B., D. Grunwald and J. Emer. "Predictive Sequential Associative Cache", Proc. 2nd HPCA, 1996.        [ Links ]

2. Agarwal, A., Analysis of Cache Performance for Operating Systems and Multiprogramming. PhD. Thesis, Stanford University, May, 1987. Available as Technical Report CSL– TR–87–332.        [ Links ]

3. Eustace, A. and A. Srivastava. "ATOM: A Flexible Interface for Building High Performance Program Analysis Tools". Technical Report TN–44, Digital Western Research Laboratory, 1994.        [ Links ]

4. Burger, D. and T. M. Austin, "The SimpleScalar Tool Set, Version 2.0," University of Wisconsin–Madison Computer Sciences Department, Technical Report # 1342, June, 1997.        [ Links ]

5. González, R. and M. Horowitz. "Energy dissipation in general purpose microprocessors". IEEE Journal of Sold State Circuits, 31(9):1277–1284, September 1996.        [ Links ]

6. Folegnani, D. and A. González. "Energy–Effective Issue Logic", Proceedings of the 28th Int. Symposium on Computer Architecture, Goteborg (Sweden), 2001.        [ Links ]

7. Amrutur, B. and M. Horowitz. "Techniques to reduce power in fast wide memories". In Symposium on Low Power Electronics, vol. 1, pp 92–93, October 1994.        [ Links ]

8. VijayKrishnan, N., M. Kandemir, M. J. Irwin, H.S Kim, and W. Ye. "Energy–driven integrated hardware–software optimization using Simple Power". In ISCA–27. Vancouver, Canada, June 2000.        [ Links ]

9. Albera, G., I. Bahar and S. Manne "Power and Performance trade–offs using various caching strategies", Proc. of the ISLPED, 1998.        [ Links ]

10. Villa, L., M. Zhang and K. Asanovic, "Dynamic Zero Compression for Cache Energy Reduction", 33rd International Symposium on Microarchitecture, Monterrey, CA, December 2000.        [ Links ]

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License