Ich ahbe eben den Heise-Artikel http://www.heise.de/newsticker/meldung/57734 gelesen, dabei ist mir die idee einer freien Suchmaschine gekommen.
Was denkt ihr, wäre es technisch umsetzbar, eine Suchmaschine zu entwickeln, die dezentral arbeitet?
Ich denke da ganz grob daran, dass jeder, der einen Server hat und das Projekt unterstützen möchte, einen bestimmten Prozentsatz CPU und Plattenkapazität etc
(seiner wahl) zur Verfügung stellt, die durch das Projekt benutzt werden können.
Die Server unterhalten sich dann irgendwie selbständig untereinander und erstellen eine Dezentrale Liste von Seiten; jeder Server hält also nur einen Teil der Datenbank ähnlich wie beim DNS.
Das "Absprechen" der Server untereinander stelle ich mir in der Art vor wie bei Routern und den routingprotokollen - die Router pflegen auch eine gemeinsame Datenbank, nämlich die Wegdaten.
Ein Server muss also nicht alles selber wissen sondern die Anfragen nur weiterleiten, bis sie auf einen Server trifft, der die Information selber hält.
Wie das im einzelnen aussehen könnte, ob es durchsetzbar ist etc. würde ich gerne hier mit euch diskutieren!
freie Suchmaschine?
Die Idee hatte schonmal hier einer im Forum.
Scheint aber nichts draus geworden zu sein, gnugle.sf.net ist jedenfalls tot.
http://www.debianforum.de/forum/viewtop ... ght=gnugle
Scheint aber nichts draus geworden zu sein, gnugle.sf.net ist jedenfalls tot.
http://www.debianforum.de/forum/viewtop ... ght=gnugle
Es gibt YACY (p2p-based distributed Web Search Engine):
http://www.yacy.de/yacy/
http://www.yacy.de/yacy/
ja, genau, ähnlich wie seti. aber das bestimmte informationen nicht online sind ist schlecht, vielleicht weiss jemand einen Ausweg hierzu.
Die Server müssten sich halt wie oben beschreiben ständig selber aktuell halten, was bereits bekannt ist und er selber deshalb nicht mehr wissen muss.
vielleicht so ne art broadcast innerhalb des suchmaschinennetzes, wobei die Anfrage vielleicht von server zu server weitergereicht wird.
soll das ganze dezentral laufen, sollte es keinen "Masterserver" geben, der das alles koordiniert, es sollte ein selbstkoordinierendes netzwerk entstehen.
Eine Zentrale Frage ist auch, wie die Daten in die Datenbnak kommen - vielleciht sollte man den Server zweiteilen - ein Teil Datenhaltung und beantwortung von Anfragen, der andere Teil neue Daten aufnehmen und in die Datenhaltung einpflegen.
oder ein Schichtmodell:
eine Schicht wäre die Datenhaltungsschicht, darüber die Anfrageschicht, parallel daneben die Eingabeschicht und zu guter letzt die managementschicht, jede schicht hat also ihre spezielle Aufgabe, sind also unabhängig voneinander; greifen aber über die Datenhaltungsschicht alle Zentral auf eine Datenbasis zu.
Die Informationsbeschaffung wiederum ist sache der Datenhaltungsschicht, sie kümmert sich dann darum, die Daten zu holen (lokal oder per Serveranfrage an nen anderen Server)
[Edit] ich habe mir grade yacy angesehen, aber dort muss man, bevor man suchen darf, selbst teilnehmen. das sit aber nicht das was ich gerne verwirklichen würde, da der gemeine user nur suchen will und nicht gezwungen sein will, eine bestimmte software zu installieren.
Die Server müssten sich halt wie oben beschreiben ständig selber aktuell halten, was bereits bekannt ist und er selber deshalb nicht mehr wissen muss.
vielleicht so ne art broadcast innerhalb des suchmaschinennetzes, wobei die Anfrage vielleicht von server zu server weitergereicht wird.
soll das ganze dezentral laufen, sollte es keinen "Masterserver" geben, der das alles koordiniert, es sollte ein selbstkoordinierendes netzwerk entstehen.
Eine Zentrale Frage ist auch, wie die Daten in die Datenbnak kommen - vielleciht sollte man den Server zweiteilen - ein Teil Datenhaltung und beantwortung von Anfragen, der andere Teil neue Daten aufnehmen und in die Datenhaltung einpflegen.
oder ein Schichtmodell:
eine Schicht wäre die Datenhaltungsschicht, darüber die Anfrageschicht, parallel daneben die Eingabeschicht und zu guter letzt die managementschicht, jede schicht hat also ihre spezielle Aufgabe, sind also unabhängig voneinander; greifen aber über die Datenhaltungsschicht alle Zentral auf eine Datenbasis zu.
Die Informationsbeschaffung wiederum ist sache der Datenhaltungsschicht, sie kümmert sich dann darum, die Daten zu holen (lokal oder per Serveranfrage an nen anderen Server)
[Edit] ich habe mir grade yacy angesehen, aber dort muss man, bevor man suchen darf, selbst teilnehmen. das sit aber nicht das was ich gerne verwirklichen würde, da der gemeine user nur suchen will und nicht gezwungen sein will, eine bestimmte software zu installieren.
HELLinG3R schrieb:
>[Edit] ich habe mir grade yacy angesehen, aber dort muss man, bevor man
>suchen darf, selbst teilnehmen. das sit aber nicht das was ich gerne
Nein, du kannst z.B. auf http://yacy.dyndns.org:8000 deine Suchanfrage eingeben.
>[Edit] ich habe mir grade yacy angesehen, aber dort muss man, bevor man
>suchen darf, selbst teilnehmen. das sit aber nicht das was ich gerne
Nein, du kannst z.B. auf http://yacy.dyndns.org:8000 deine Suchanfrage eingeben.
-
- Beiträge: 4
- Registriert: 12.02.2004 14:18:40
- Lizenz eigener Beiträge: GNU General Public License
- Wohnort: Frankfurt am Main
-
Kontaktdaten:
Sowas kann ja nur funktionieren, wenn mindestens so viele Leute mitmachen wie die, die suchen wollen. Wenn du die Idee also wirklich gut findest, dann solltest du nicht den demo-Peer als Suchportal verwenden sondern wirklich teilnehmen.
YaCy bietet ja nicht nur eine Websuche, sondern viele Mehrwerte, die du nur mit einem eigenen Peer nutzen kannst; ist doch ausserdem ein gut Grund für einen eigenen Peer.
YaCy bietet ja nicht nur eine Websuche, sondern viele Mehrwerte, die du nur mit einem eigenen Peer nutzen kannst; ist doch ausserdem ein gut Grund für einen eigenen Peer.
Es gibt auch noch openseek (http://www.openseek.org)
Das Projekt ist aktiv und im IRC im freenode-netz in #openseek zu erreichen.
Das Projekt ist aktiv und im IRC im freenode-netz in #openseek zu erreichen.
Jazz is not dead, it just smells funny.