Moin
als csv-datei hat es
ein groesse von ca 12 mb
Die Grösse schliesst SQL + freehoster schonmal aus. Perl + flat-file oder Perl + berkeleyDB ginge aber immernoch.
bei der volltextsuche soll der user ein oder mehrere wörter
eingeben können - z.b. albert einstein
und es werden alle sprüche ausgegeben, die „albert einstein“
enthalten.
Kein Problem. Das kann man sogar auf freehostern in anständiger Zeit zum laufen bringen.
es sollten aber auch teil-string erfasst werden können
also: eingabe „pump“ sollte auch pumpkin finden
und den jeweiligen spruch ausgeben.
Das ist ein riesengrosses Problem und setzt viel mehr Power vorraus. Es hat schon seine Gründe weshalb selbst google das nicht mehr macht. Wenn es wenigstens nur nach Anfangsstrings wäre… da könnte man was machen.
es wäre schön, wenn die ergebnisse in einer „tabelle“
ausgegeben werden - der übersicht halber jede zweite
zelle z.b. hellgelb -
ausgegeben werden sollte id-nr - spruch - autor
Das ist Komsmetik, sowas kann man in die meisten Skripts nachträglich einbauen.
> der einzugebende suchtext sollte mind
4 oder 5 buchstaben/zahlen enthalten
> ausgabe der anzahl der treffer
> es sollten immer nur 10 treffer auf einmal angezeigt
werden
mit „weiter“ sollten die nächsten 10 … usw
Geht alles ohne grössere Probleme. Sowas haut erst rein wenn die Seite sehr gut besucht wird.
gibts da eine empfehlung ? müsste dann ja mit sql und perl
sein.
Oder perl + flat-file oder perl + berkeleyDB.
> so guenstig wie möglich ;=)
Lass das substring-suchen weg und ein freehoster reicht.
> und dass die suchergebnisse nicht erst nach 5 minuten
erscheinen
Naja,… 12MB Texte sind zwar nicht ohne, aber wenn sich die Texte nicht zu häufig ändern und man das ganze über vorgefertigete Indexe laufen lässt ist das alles nicht so wild.
cu