jeder kennt ja die Möglichkeit per rechte Maustaste den HTML Code einer Seite anzeigen zu lassen. Meine Aufgabe ist es derzeit diesen HTML Code in einer Entwicklungsumgebung (bestenfalls C++) nach bestimmten Suchkritieren zu durchforsten. Das erweist sich leider als schwieriger als gedacht.
hab leider selbst noch nie etwas in die Richtung gemacht, aber libCurl (eine Portable C-Library) scheint eine verdammt einfach Möglichkeit zu bieten, den HTML Code einer Seite programmtechnisch rauszuziehen: http://curl.haxx.se/
Da Du sicherlich nicht erst alles in einem File speichern willst, musst Du vorher den Callback aus dem Beispiel umschreiben (die Funktion write_data() ganz oben).
Die API ist recht überschaubar auf den ersten Blick, je nachdem wie gut Du Dich mit C/C++ auskennst, sollte das denke ich recht flott machbar sein
Es gibt winhttrack, das versucht ganze Seiten inkl. verlinkter automatisch herunterzuladen, um sie Offline nutzen zu können, was jedoch beim Selbstversuch nicht funktioniert hat. Vielleicht gibt es hier Anhaltspunkte.