Debianforum zum offline lesen

Neues rund um debianforum.de
Benutzeravatar
finupsen
Beiträge: 1327
Registriert: 21.04.2004 20:07:05
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Dortmund
Kontaktdaten:

Beitrag von finupsen » 27.06.2006 22:50:43

deadeye hat geschrieben:Hehe, einmal hat es ja schon geklappt.
Würde auch bei einem nntp-Patch mitmachen, allerdings ist das IMO etwas komplexer, schon nur durch verschiedene Gruppen, in die die Artikel einsortiert werden müssen und dem Newsserver, der dazu eingerichtet werden muss.
Ja sicherlich ein herrausforderung aber nicht unmöglich. Ich würde
da auch gerne mitmachen wenn interesse da ist. Allerdings ist
ein forumpatch IMHO nicht die beste wahl. Denke da eher an
ein programm das, ausgelöst durch cron, die Daten von der
datenbank (postings) auf die newsgroups kopiert.

Ein solches tool wäre sicherlich auch für andere forenbetreiber
interessant ...
Niemand hat vor eine zentrale Datensammelbehörde aufzubauen. Es handelt sich vielmehr um dezentrale IT-Systeme die miteinander vernetzt werden.
... und Wasser ist naß.

Benutzeravatar
deadeye
Beiträge: 561
Registriert: 14.04.2004 15:32:18
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Ukio, rechts hinterm Feld
Kontaktdaten:

Beitrag von deadeye » 27.06.2006 23:05:12

Die Idee mit dem eigenen Programm ist mal nicht schlecht, das macht auch die Entwicklung einfacher und anschließend auch die Integration ins Forum.

Es über cron laufen zu lassen ist eine andere Sache, dann müsste man sich auch den Stand seit dem letzten Lauf merken, da es ja dann ein inkrementelles Auslesen wäre. Da würde sich evtl. die ID des letzten behandelten Postings eignen.

Allerdings würde ich eher die Ausführung des Programms aus dem Forum heraus triggern, so wie es jetzt mit der Mail passiert, d.h. es kommt ein neuer Post, die dazugehörenden Infos(Autor, Zeit, Text, Titel, Forum) werden in eine temporäre Datei geschrieben, dann wird das Programm mit dem Pfad zu der Datei aufgerufen, die Infos von dort ausgelesen und die Datei gelöscht.
Alternativ könnte man auch mit named pipes arbeiten, aber ich weiß nicht, ob PHP das mitmacht, vermute eher nicht. Muss auch nich sein.

Das sind alles nur Ideen.
Martin, kannst Du mal ein kurzes Statement zum Thema abgeben, ob es sich überhaupt lohnt weitere Gedanken dazu zu machen? :lol:

Gruß
deadeye

Benutzeravatar
Leonidas
Beiträge: 2032
Registriert: 28.04.2003 13:48:49
Lizenz eigener Beiträge: MIT Lizenz
Kontaktdaten:

Beitrag von Leonidas » 04.07.2006 22:22:38

So, und wann gibt es die Debianforum.de-DVD? 8)
Wir wollten einen Marsch spielen, aber wir hatten nur Xylophone.

Benutzeravatar
deadeye
Beiträge: 561
Registriert: 14.04.2004 15:32:18
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Ukio, rechts hinterm Feld
Kontaktdaten:

Beitrag von deadeye » 24.07.2006 11:12:52

Mir ging es in letzter ein wenig auf die Nerven, dass mein mittlerweile 34MB große Ordner der dfde-posts-Liste etwas Zeit braucht zum Öffnen im MUA.

Dachte also ich lösche ein paar alte Mails. Dann dachte ich aber, das ist doof.
Denn wenn dann einer auf einen Thread antwortet, den ich dann gerade gelöscht habe, dann kann ein MUA die neue Mail nicht mehr in den Thread einsortieren und sie landet unten(oder oben, je nach Sortierung) bei den anderen "neuen" Mails.

Also hab ich ein kleines Script geschrieben, was Mails löscht, die älter als eine einstellbare Zahl von Tagen sind, aber diejenigen Mails behält, die der erster Post eines Threads sind.

Es ist nicht sehr gut getestet, funktioniert aber bei mir.
Wenn es jemanden interessiert, das Script ist hier:
http://files.uvena.de/df_clean.sh oder mit mehr Infos zur Verwendung hier:
http://www.uvena.de/snippets:bash:df_clean

Gruß
deadeye

P.S.: Lohnt es sich, dafür einen Wikieintrag zu erstellen?

jhr-online
Beiträge: 2186
Registriert: 18.09.2005 15:52:02
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Beitrag von jhr-online » 24.07.2006 12:34:26

deadeye hat geschrieben:P.S.: Lohnt es sich, dafür einen Wikieintrag zu erstellen?
Immer.

jhr
Desktop: Intel Core2Quad Q8300 2.5GHz, 256GB SSD + 1 TB HDD, 8 GB RAM, Debian Sid, Kernel 3.13

Antworten