RSS Feed Problem

Hi,

ich lasse mir mittels PHP dynamisch aus der Datenbank eine XML RSS Feed Datei generieren, die ich gerne der Öffentlichkeit zur Verfügung stellen möchte. Ich habe die XML Datei, die dabei entsteht, auch schon validieren lassen, mit dem Ergebnis, dass sie gültig ist. Nun zu meinem Problem. Thunderbird holt nur jeweils den aktuellsten Beitrag ab und macht danach nix mehr…egal, ob die Datei neue Inhalte hat oder nicht.

ich poste mal das Beispiel mit einem Newselement:

<?xml version="1.0" encoding="ISO-8859-1" ?>Neuigkeitenhttp://[www.suppenkasper.de](http://www.suppenkasper.de)

RSS Feed der Newssektionde-deIch und du26.11.2006 || 19:13 UhrTesteintraghttp://www.xyz.de

und noch eine Frage, falls es keine Umstände macht :smile:. Was haltet ihr davon, die XML Datei als Cronjob zu generieren (ca. jede Stunde einmal)? oder ist das vollkommener Blödsinn?

Danke vielmals und Grüße

peeayoo

Thunderbird holt nur jeweils den aktuellsten Beitrag ab und
macht danach nix mehr…egal, ob die Datei neue Inhalte hat
oder nicht.

ich weiss nicht, wie thunderbird mit newsfeeds umgeht - was erwartest du denn? wie sieht es z.b. bei bloglines, oder http://reader.eoe-projekte.de/ aus?

wie seht denn tatsaechlich dein newsfeed aus?

ich poste mal das Beispiel mit einem Newselement:

> <?xml version="1.0" encoding="ISO-8859-1" ?>  
>   
>   
> Neuigkeiten  
> http://www.suppenkasper.de  
> RSS Feed der  
> Newssektion  
> de-de  
> Ich und du  
>   
> 26.11.2006 || 19:13Uhr   
> Testeintrag   
> http://www.xyz.de

warum nicht rss20 - ist der title tatsaechlich das, was dann bei dir als title gezeigt wird? das waere schlecht.

und noch eine Frage, falls es keine Umstände macht :smile:. Was
haltet ihr davon, die XML Datei als Cronjob zu generieren (ca.
jede Stunde einmal)? oder ist das vollkommener Blödsinn?

ich denke schon. entweder du erstellst a) das xml dynamisch beim seitenaufruf, oder b) statisch beim anlegen eines artikels. per cronjob waere ein workaround fuer b um sich die last bei a) zu sparen.

Was ich erwarte ist ganz einfach. Ich möchte, dass alle Inhalte des Feeds, die noch nicht abgerufen wurden, abgerufen werden, sobald es etwas neues gibt.

Zur Zeit wird beim Neu Abo, der aktuellste Eintrag abgeholt und ab da passiert nix. Um also weiterhin auf dem Laufenden zu bleiben, muss ich den Feed abbestellen und erneut abonnieren, um exakt eine News zu erhalten. Das kann ja nicht sein oder?

Ich habe diverse andere Feeds abonniert, bspw. Yigg.de…daklappt das hervorragend. Alle 15 Minuten holt sich Thunderbird alle neuen News. So sollte es ja eigentlich auch laufen.

Du schreibst, dass der schlecht gewählt ist…liegt es an den Sonderzeichen || ?

Danke dir schon mal.

Adam

Ich habe diverse andere Feeds abonniert, bspw.
Yigg.de…daklappt das hervorragend. Alle 15 Minuten holt sich
Thunderbird alle neuen News. So sollte es ja eigentlich auch
laufen.

dann poste doch einfach mal einen link auf deinen aktuellen rssfeed.

Du schreibst, dass der schlecht gewählt
ist…liegt es an den Sonderzeichen || ?

nein, am informationsgehalt. :wink:

der Informationsgehalt ist schon in Ordnung so. Es geht um ein Intranet und die Mitarbeiter bekommen somit ein kleines Informationstool, das ihnen mitteilt, wann wer was im Intranet hinzugefügt hat…

wo wir schon beim zweiten Punkt wären…den Link könnte ich posten, aber da es sich um ein Intranet handelt, würdest du nicht an die Info herankommen. Ich werde die XML datei mal ins Netz stellen und wenn du magst, schau sie dir mal an:

http://komminform.ko.funpic.de/newsfeed.xml

habe gerade mal kurz rumprobiert, kann es sein, dass der thunderbird den link als unique identifier betrachtet? probier mal da die msg-id oder aehnliches mit reinzuschreiben, also:

http://www.beispielwebsite.de/thema.html?id=123

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

nein… auch nach dem Zuweisen unterschiedlicher Beispiel IDs im Link, spielt er nicht mit…so langsam drehe ich hier am Rad :smile: das kann doch nicht sein. Er holt weder die Items vom lokalen Apache noch von der öffentlichen Domain ab. Habs auch mit RSS 2.0 und der „pubDate“ Auszeichnung versucht–niente.

ok, das mit den ids war ein blindschuss - sorry.
aber das hier: hat bei mir getan (http status pruefen, bei 304 passiert nix, 200 muss es schon sein)

<?xml version="1.0" encoding="ISO-8859-1" ?>Neuigkeitenhttp://igbe-intranet
 RSS Feed der Newssektionde-deIntranet28.11.2006 || 13:54 UhrXY hat einen neuen Termin hinzugefügtxhttp://www.beispielwebsite.de/themaxasda.html
 26.11.2006 || 19:13 UhrXY hat einen neuen Termin hinzugefügthttp://www.beispielwebsite.de/themay.html

hey cool, danke dir , funktioniert jetzt. Ist nun die Lösung des ganzen, dass Description und Link Elemente von einander abweichen müssen?

hey cool, danke dir , funktioniert jetzt. Ist nun die Lösung
des ganzen, dass Description und Link Elemente von einander
abweichen müssen?

davon gehe ich aus, wobei der link wohl das ausschlaggebende element sein duerfte, wenn er natuerlich deine per queryarg uebergebenen ids abgeschnitte aht ist das doof.