Hallo,
Die einfachste Antwort ist: Weil man es kann. 
Mit Spielekonsolen kenne ich mich nicht aus, aber das Problem ist ein Allgemeines in der Computerei.
Eine CPU kann eine bestimmte Anzahl Befehle pro Sekunde abarbeiten. Um also eine bestimmte Reaktionszeit zu erhalten, muss das Programm entsprechend kurz sein.
Ein 6502 konnte mit 1MHz Takt einige 100â000 Befehle/s verarbeiten. Mit einem Befehl konnten maximal 8-Bit bearbeitet werden und Ganzzahl-Multiplikation/Division mussten durch ein Programm verarbeitet werden.
Heutige CPUs haben einen 3-4 Tausend mal höheren Takt, mehrere parallel arbeitende CPUs und eine PFU. Ein einzelner Befehl kann kompliziertere Operationen ausfĂŒhren und es können 64-Bit (80-Bit bei der FPU) in einem einzelnen Befehl bearbeitet werden.
Beim APPLE ][ musste jedes einzelne Pixel vom 6502 einzeln berechnet und in den Graphikspeicher geschrieben werden.
Heute ĂŒbernimmt dies der Grafikprozessor (GPU). So eine GPU ist ein Vektorrechner, ist also dafĂŒr optimiert eine bestimmte Operation auf viele Daten anzuwenden. Dabei wird massive Parallel-Verarbeitung gesetzt. Heutige GPUS haben eine höhere Rechenleistung als die CPU, weshalb aktuelle Supercomputer mit GPUs gebaut werden.
Um also schnelle Programme zu erzeugen, musste man FrĂŒher in Assembler programmieren, weil man nur so optimal optimieren konnte. Hochsprachen wie z.B. C, erzeugten Anfangs etwa 20-50% mehr Code, als ein Assembler-Programm. Heutige optimierende C-Compiler erzeugen noch etwa 10% mehr Code. Andere Programmiersprachen erzeugten noch mehr Code oder waren, durch ihre Architektur viel langsamer.
Eine Konstante ĂŒber Jahrzehnte ist, dass ein Programmierer etwa 10 Zeilen Code pro Tag erzeugt. Die beinhaltet das Schreiben, Testen und Dokumentieren.
Wenn man fĂŒr eine Aufgabe 1â000 Maschinen-Befehle benötigt, sind dies in Assembler etwa 100 Arbeitstage. In C ergibt die vielleicht 100 Zeilen Code, also 10 AT. Mit einer passenden Bibliothek geht das dann mit 10 Zeilen Code, also in einem Arbeitstag! GrundsĂ€tzlich muss man auch Treiber zu den Bibliotheken zĂ€hlen.
So, jetzt kommen wir der eigentlichen Frage langsam nÀher.
So eine Bibliothek stellt nun aber eine Menge Funktionen zur VerfĂŒgung und möglicherweise benötige ich 2 von 100 Funktionen. Installiert, und auf DVD abgelegt, wird aber die ganze Bibliothek!
Einen Àhnlichen Effekt hat auch die Objekt Orientierte Programmierung (OO). Wen man nicht aufpasst, schleppt man vie unbenutzten Code mit der Vererbung mit rum.
Ăbrigens funktioniert die DNA auch nach diesem Prinzip. Viele DNA-Abschnitte werden beim Menschen dar nicht genutzt und sind irgendwelche Code-Ăberreste aus der Vergangenheit. Die 1-2% Unterschied zum Schimpansen, scheinen hauptsĂ€chlich im âHauptprogrammâ zu liegen. Der Hauptunterschiel liegt dann darin, dass beim Menschen viele âUnterprogrammeâ wesentlich öfters ausgefĂŒhrt werden.
Ein weiterer Grund sind die Programmierer und Politik mancher Firmen.
Vor 50 Jahren gab es weltweit wenig ArbeitsplĂ€tze fĂŒr Programmierer. Da wurde also gesiebt und nur die Besten, Genialsten und Erfahrensten fanden einen Arbeitsplatz. Heute ist es umgekehrt. Die Firmen sind froh, wenn sie ĂŒberhaupt jemanden finden, welcher ein Programm erstellen kann. Hinzu kommt noch, dass z.B. Bill Gates der Meinung war, dass nur Junge Leute Ideen haben. Da wurden Leute eingestellt, noch bevor sie Ihre Ausbildung beendet hatten. Dies fĂŒhrte dann zu Problemen wie bei SASSER.
Die LĂŒcke welche SASSER ausnutzte bestand in einem ganz einfachen AnfĂ€ngerfehler. Man hat einen Datenkanal (Ethernet) welcher Datenpakete mit bis zu 64KB transportieren kann, Dann programmiert man einen Dienst, welcher. per Definition, mit Datenpaketen von maximal 4KB arbeitet. Nun hat man einfach vergessen zu prĂŒfen ob das erhaltene Paket grösser als 4KB istâŠ
Aus Benutzersicht, sind Computer eigentlich in den letzten Jahrzehnten nicht schneller geworden. Das Laden und die AusfĂŒhrung von Befehlen dauert immer noch gleich lang.
Allerdings tut sich heute natĂŒrlich viel mehr im Hintergrund!
Mit dem Ăbergang von Konsolen basierten Betriebssystemen (z.B. DOS) zu graphischen OberflĂ€chen (z.B. Windows) wurde viel CPU-Leistung in die Grafik gesteckt und fĂŒr die eigentliche Aufgabe blieb nicht wirklich mehr Rechenzeit ĂŒbrig.
Kaum kommt die neue Rechnergeneration wieder nach, werden neue Gimmicks eingebaut, welche wieder Rechenleistung benötigen.
Ich weiss nicht woran es liegt, aber Spiele haben schon immer die neueste, leistungsstÀrkste Hardware benötigt. Meiner Meinung nach, lag es vor allem am Wissen und der Kunst zu programmieren. Schon zu DOS-Zeiten gab es etliche Spiel, welche selbst mit 640KB RAM nicht funktioniert hatten, wenn man einen Tastaturtreiber installiert hatte, welcher nun mal einige KB Speicherplatz belegt hatte. Diese Programmierer gingen einfach davon aus, dass ausser dem DOS selbst nichts anderes im Speicher abgelegt ist. Dies hat damals bei der englischen DOS-Version funktioniert, weil diese den Tastaturtreiber des BIOS verwenden konnte. 
Der PET wurde ursprĂŒnglich mit 4KB RAM ausgeliefert, auf dem Motherboard aufrĂŒstbar auf 8KB. Ein paar Jahre vorher gab es professionelle Multiuser Computer mit 16 Usern/Terminals und 32-64 Kilo-Byte RAM.
MfG Peter(TOO)