Hallo Stefan!
Das „Problem“ stellt sich mir auch (demnächst). Ich arbeite an einer Kombination…
Der Reloader kam aus dem Grund:
Zuerst hatte ich alle Seiten mit Meta-Tags ausgestattet. Dann
wurden leider Seiten aus dem Frame als Einzelergebnisse in
Google angezeigt und waren somit nicht brauchbar.
Das ist doch gar nicht so unbrauchbar!
Zwei Möglichkeiten:
(1) Du erzeugst von zentralen / wichtigen Seiten (5 bis 6 je Homepage dürften ausreichen) eine frame-lose „Stand-alone“-Version, mit der der Besucher das Frameset manuell (nach-) laden kann. – Allerdings musst Du darauf achten, dass Du H1, H2, H3 und möglichst vollen Textinhalt mit rein nimmst. (Die robots.txt passt Du entspr. auf index.html und thema1.html, thema2.html usw. an.) Du könntest auch den Text in solchen „Info-Seiten“ redaktionell straffen, so dass der Besucher einfach Lust bekommt die Site vollständig zu besuchen. 
(2) So es der Server Deiner Kunden zulässt: SSI verwenden, um eine Weiche für Robot ./. Browser zu erstellen. Mehr Info bei DrWeb.de (http://www.drweb.de/) mit der Suche „SSI“ oder „Server Side Includes“.
Und wenn Dich SSI dann genauso fasziniert wie mich, kickst Du den JS-Reloader und machst das mit SSI (DrWeb erklärt das mit dem Anhängen von per SSI auswertbaren Variablen unter dem Thema „Print-Version mit SSI laden…“ oder so ähnlich).
…[Frame-Reloader] …Ist das Cloaking? …
Das kommt immer auf den Zweck an. – Da Suchmaschinen nicht in der Logik und dem Bezug zu menschlichen Werten, sondern lediglich mit dem sachlichen, rein technischen Inhalt umgehen, muss eben irgendwo die Grenze gesetzt werden. – Frage Dich selbst: Wer betreibt denn Suchm.-Cloaking? Wer forwarded denn URLs bis zum geht nicht mehr? – Und setze Dich dann von „dieser grauen Masse“ ab und überlasse die Kontrolle über die Ansicht der Inhalte den Site-Besuchern. Das ergibt einfach bessere Erfolge… IMHO.
CU DannyFox64