Digamos que estamos vendo uma DRAM com parâmetros de tempo típicos (os de interesse estão listados abaixo) com latências de leitura e gravação de ~ 20-50 nanossegundos. Como alguém mudaria os parâmetros de tempo para fazer com que as latências de leitura e gravação da DRAM aumentassem? Especificamente, digamos que queremos ler e gravar latências de ~ 1 microssegundo. Os parâmetros com os quais tenho que trabalhar são os seguintes (se outros forem importantes e não listados, por favor, mencione-os; qualquer um que não seja importante ou que não faça sentido pode ser ignorado):
* tCCD = CAS to CAS command delay (always = half of burst length)
* tRRD = Row active to row active delay
* tRCD = RAW to CAS delay
* tRAS = Row active time
* tRP = Row precharge time
* tRC = Row cycle time
* CL = CAS latency
* WL = Write latency
* tWTR = Write to read delay
O motivo pelo qual estou perguntando é que quero fazer uma pequena simulação para investigar o efeito de várias latências de acesso à memória no desempenho do programa para vários padrões de acesso à memória. Meu conhecimento de hardware de memória é extremamente limitado; dados os parâmetros acima, estou pensando que a latência de memória para um único acesso seria algo como tRAS + CL para selecionar uma linha / coluna, além de WL? Eu realmente peço desculpas se estes não são parâmetros comuns de temporização. Obrigado antecipadamente!
EDITAR:
Venha para pensar sobre isso, se eu tiver um conjunto de parâmetros de temporização p1, p2, ..., pN, com saber ler / escrever latência X, posso obter um novo conjunto de parâmetros p1 ', p2',. .., pN 'para uma latência de leitura / gravação desejada Y > X tomando p1 '= (Y / X) p1, p2' = (Y / X) p2, ..., pN '= (Y / X) pN? Parece que eu deveria, pois se as latências de leitura / gravação são uma combinação linear de parâmetros de tempo de DRAM subjacentes, eu deveria ser capaz de simplesmente escalar os parâmetros e obter uma escala equivalente nas quantidades derivadas ... certo?