Grosses Prjekt = lange compilieren?

Hallo

Ich habe ein grosses Problem. Ich habe ein Projekt mit 750 Klassen. Wenn ich nun mit dem MS Visual Studio .Net in einer Klasse etwas ändere (z.B. einen Lehrschlag einfügen, nichts besonderes) und dann kompiliere, dann geht das ziemlich lange bis er alle dependencies zusammengestellt hat.
Kann man das irgendwie optimieren?
Hat auch jemand dieses oder andere Probleme?

Grüsse

Romano

Hallo

Ich glaube mal gelesen zu haben (Irrtum vorbehalten), dass wenn man Incremental Build ausschaltet, das Kompilieren viel langsamer geht. Ist das bei Dir ev. der Fall?

Gruss

Giuseppe

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Hi Romano

Ich würd dir vorschlagen eine Solution zu machen welche mehrere Projekte enthält. Sprich teile deine 750 Klassen auf. Sollte nicht so schwer sein wenn du gescheite Namespaces verwendet hast. Erstens kannst du so im „Batch build“ sagen welche Projekte mit dem „Curent“ compiliert werden soll und es ist auch sinvol fals du mit SourceSafe und anderen Leuten arbeitest (bei so vielen klassen!) die übersicht zu halten wer für was zuständig ist.

grüsschen
eldo

Hallo!

Inkrementelles Compilieren bedeutet, dass beim Compilieren versucht wird, den bestehenden Code zu erweitern, anstatt neu zu kompilieren. Das kann dazu führen, dass das Binary größer wird, allerdings schneller compiliert wird.

Das Problem hier ist allerdings ein anderes. Der Compiler compiliert jede *.cpp einzeln, nachdem der Präprozesser seine Aufgabe erledigt hat. Wenn du in jeder *.cpp gewisse Header-Dateien includiert hast (z.B. stdafx.h), und diese veränderst, dann müssen auch alle *.cpp Dateien neu kompiliert werden. Ähnliches gilt, wenn du die XXX.pch Datei im Debug Verzeichnis löscht. Diese Datei bedeutet Precompiled Headerdatei und enthält Informationen über eben diese Dependencies.

Lösung: Optimiere die Includierungen von Headerdateien und lösche das Debug-Verzeichnis nicht.

Ich hoffe auch diesesmal, dass ich keinen Müll erzähle.

mfg,
Stefan!