Paging, effektive Zugriffszeit, Seitenfehler

  • Hallo zusammen,


    ich befinde mich in der Prüfungsvorbereitung und verzweifle an dieser Übung:



    Wenn man davon ausgeht, dass die Anzahl der zwischen zwei Seitenfehlern ausgeführten Instruktionen direkt proportional zur Anzahl der einem Programm zugewiesenen Seitenrahmen ist. Und bei einer Verdoppelung des verfügbaren Speichers im Mittel das Intervall zwischen zwei Seitenfehlern verdoppelt wird: Möge nun eine Instruktion ohne Seitenfehler 1µs, mit Seitenfehler 2001µs benötigen. Wenn die Laufzeit eines Programms 60s beträgt und in dieser Zeit 15.000 Seitenfehler auftreten, wie lange müsste es laufen, wenn zweimal so viel Speicher zur Verfügung steht?



    Kann mir jemand dabei auf die Sprünge helfen?