Suchmaschine mit Datenbank

Hallo zusammen,

Ich betreibe unter http://tvsearch.ch eine Suchmaschine. Es handelt sich dabei um ein CGI (Perl) welches ein Flatfile sequentiell liest. Momentan habe ich über 2500 Datensätze in diesem File. Ihr könnt euch etwa vorstellen wie lange dies nun dauert.

Kennt jemand eine einfache Suchmaschine (Sprachen: C/C++, Perl oder PHP3) mit Datenbankanbindung (MySQL wenn möglich) welche auf einem UNIX-Server laufen würde?

Vielen Dank für eure Tipps.
Gruss
Simon Martinelli

Hallo Simom,
Excite hat da mal was angeboten, das nannte sich Excite for Web Servers. Lief gut und schnell, war simpel zu administrieren. Schau mal bei Excite.com.
Gruß
Michael

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Hi Michael,

Danke für den Tip hört sich gut an. Leider kann man mit der Suchmaschine nur Files auf dem eigenen Server indizieren und keine auf anderen. Deshalb kann ich diese leider nicht gebrauchen.

Kennt jemand eine andere Suchmaschine.

Vielen Dank und Gruss
Simon

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Ich betreibe unter http://tvsearch.ch eine Suchmaschine. Es
handelt sich dabei um ein CGI (Perl) welches ein Flatfile
sequentiell liest.

Diese Funktionalität mit einer Datenbank nachzubauen ist kein wirklicher Aufwand, wenn die Datenbank mal eingerichtet ist, ist das eine Sache von einer Stunde, alles in allem maximal ein Tag für jemand der schon ein bißchen Datenbankprogrammierung mit der jeweiligen Skriptsprache gemacht hat.

Such dir einfach jemand ders kann und lass es dir machen. :o)

Grüße, Robert

Diese Funktionalität mit einer Datenbank nachzubauen ist kein
wirklicher Aufwand, wenn die Datenbank mal eingerichtet ist,
ist das eine Sache von einer Stunde, alles in allem maximal
ein Tag für jemand der schon ein bißchen
Datenbankprogrammierung mit der jeweiligen Skriptsprache
gemacht hat.

Such dir einfach jemand ders kann und lass es dir machen. :o)

Hallo Robert,
Danke für den Tip, wäre nie darauf gekommen…:wink: Ich glaube aber, dass Du die Sache ein bisschen unterschätzt. Es wird nicht reichen, das Flatfile durch eine DB zu ersetzten, sondern man muss die Extraktion der HTML-Seiten, den Spider sowie den ganzen Suchalgorithmus neu programmieren. Da ich selber Programmierer bin (C/C++ und Cobol) könnte ich dies sehr wohl selber machen, scheu aber den Aufwand. Ich glaube nach einem Tag (Deine Schätzung) wäre man mit dem Detaildesign noch nicht mal fertig.

Das soll heissen, dass ich sehr gerne auch für die Suchmaschine bezahlen würde.

Trotzdem danke für die Antwort.
Simon

Es
wird nicht reichen, das Flatfile durch eine DB zu ersetzten,
sondern man muss die Extraktion der HTML-Seiten, den Spider
sowie den ganzen Suchalgorithmus neu programmieren.

Also, den Suchalgorithmus liefert die DB mit, du setzt die Anfrage einfach per SQL ab und nimmst das Ergebnis her.

An den Spider habe ich nicht gedacht, den kannst du aus dem einen Tag ausklammern, kann mir aber nicht vorstellen, dass das ein so großer Aufwand ist, den statt ins Flatfile in die DB schreiben zu lassen.

Ist zwar schon ein paar Monate her, aber ich hab einige Zeit ziemlich intensiv webgestützte Datenbankanwendungen programmiert und bin mir sicher, dass Abfragemasken usw. von einem da halbwegs geübten Programmierer in der Zeit realisierbar ist.

Grüße, Robert