Guten Tag,
mich würde interessieren wie Google es schafft innerhalb einiger Sekunden das ganze internet zu durchforsten. Habe einige Textsuchalgorithmen angeschaut so wie Rabin und Karp oder Boyer-Moore. Ok die sind schon effizient aber unvorstellbar das es trotzdem so schnell bei den Suchmaschinen geht, die Datenmenge ist doch auch riesig. Ich denke schon allein die Wikiseiten zu durchsuchen würde mit Rabin und Karp länger dauern. Kann mir jemand erklären was für einen Algorythmus z.B. Google benutzt und wie viel vom Internet wird den überhaupt durchsucht?
Vielen Dank im Voraus.
Die durchsuchen das Internet im Vorfeld duch automatisierte kleine Programme, bilden nen Index über die Ergebnisse ab, die sie dann bei sich lokal ablegen und darüber die endsprechnden Ergebnisse verlinken können.
Moien
mich würde interessieren wie Google es schafft innerhalb
einiger Sekunden das ganze internet zu durchforsten. Habe
einige Textsuchalgorithmen angeschaut so wie Rabin und Karp
oder Boyer-Moore.
Du suchst in der falschen Ecke. Kuck dir den Suffix Tree an. Dann wird dir auch klar wieso Google so auf RAM steht.
Kann mir jemand erklären was für einen
Algorythmus z.B. Google benutzt
Das weiss keiner so genau. Aber ich würde auf eine wilde Mischung aus Index, Suffix ähnlichen Techniken und massive parallele Algos tippen.
und wie viel vom Internet wird den überhaupt durchsucht?
nunja … den Teil schonmal nicht: http://en.wikipedia.org/wiki/Deep_Web
cu