HA / Cluster

Smalltalk
Antworten
Benutzeravatar
sorcerer
Beiträge: 2
Registriert: 10.07.2002 08:51:40

HA / Cluster

Beitrag von sorcerer » 25.07.2002 13:38:00

Hat jemand von Euch schon Erfahrungen mit HA-Lösungen bzw. Clustern gemacht? Was könnt Ihr empfehlen (z.B. Mosix, Linux Virtual Server Project, etc.)? Ziel ist eine hochverfügbare Serverlösung (möglichst mit Lastverteilung), die trotzdem nicht allzu umständlich in der Administration ist.

Wäre schön, wenn Ihr mir Hinweise/Tips dazu geben könntet.

Ciao, sorcerer

bzimage
Beiträge: 16
Registriert: 10.07.2002 16:44:45
Wohnort: Berlin

Beitrag von bzimage » 26.07.2002 23:33:39

Hallo,
das ist ein Thema, das mich auch sehr interessiert. AFAIK sind Beowulf-Cluster ziemlich
verbreitet in der Linux-Welt. Sollen sehr einfach zu installieren und zu administrieren sein.
Ich hatte vor ein paar Monaten 'ne ziemlich gute Anleitung im Web gefunden, wie man selbst
2 einfache Rechner zu einem BeowulfCluster zusammenbaut, finde leider den Link nicht wieder.

Grüße

Benutzeravatar
abi
Beiträge: 2218
Registriert: 20.12.2001 19:42:56
Wohnort: München
Kontaktdaten:

Beitrag von abi » 27.07.2002 12:13:16

hm naja, ich hab mir in der arbeit mal zum test nen kleinen Cluster aus 3 Rechnern gebaut, ist eigentlich ziemlich einfach.

Kernel (2.4.17) auswählen, Mosix Patch für den kernel installieren (gibts als paket) kernel mit mosix unterstützun bauen, die Nodes in der Configdatei eintragen, und dann kannst du halt von hand Prozesse an andre rechner abgeben oder es per Load balancing machen usw ..
hab mich net viel eingearbeitet, scheint auch ziemlcih komplex zu sein wenn man was fundamentiertes braucht (also nen richtigen cluster) von hw seite sowie tuning ..

Benutzeravatar
CREEQ
Beiträge: 64
Registriert: 30.07.2002 19:04:58
Lizenz eigener Beiträge: GNU General Public License
Wohnort: Berlin
Kontaktdaten:

Beitrag von CREEQ » 30.07.2002 22:50:27

jau, das mosix teil hab ich auch getestet, die processe wurden auch übertragen ...

was mich interessiert ist aber: kann man auch z.b. 3 rechner an einem process arbeiten lassen?? weil bei mir wurden immer nur ganze prozesse auf die rechner verteilt, wenn aber nur ein process lief, hat nur ein rechner dran gearbeitet ... ist das vielleicht bei dem beowulf teil anders?

mfg CREEQ

Benutzeravatar
pdreker
Beiträge: 8298
Registriert: 29.07.2002 21:53:30
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Nürnberg

Beitrag von pdreker » 01.08.2002 14:25:36

CREEQ hat geschrieben:was mich interessiert ist aber: kann man auch z.b. 3 rechner an einem process arbeiten lassen?? weil bei mir wurden immer nur ganze prozesse auf die rechner verteilt, wenn aber nur ein process lief, hat nur ein rechner dran gearbeitet ... ist das vielleicht bei dem beowulf teil anders?
Es werden grundsätzlich nur komplette Prozesse übertragen, egal wie oder womit. Wenn Du einen Prozess auf mehrere Rechner aufteilen willst geht das evtl. mit Threads und MOSIX (weiss ich aber nicht) oder mit Libraries ala MPI. Auf jeden Fall kann man nicht einfach ein dickes rechenintensives Proggi auf mehrere Rechner verteilen. Das ist immer Handarbeit, und man sollte bedenken, dass die Kommunikation zwischen den Nodes um Längen langsamer ist als alles was intern in einem Rechner abläuft. Verteilen lohnt sich also überhaupt nur, wenn die Kommunikation relativ zum Rechenaufwand gering ist (das ist auch der Grund warum keine einzelnen Prozesse gesplittet werden: Kommunikation in einem Prozess muss extrem schnell sein, sonst wird das proggi einfach superlahm. Ausserdem weiss das System nicht unbedingt, welche Teile parallelisierbar sind.).

Patrick
Definitely not a bot...
Jabber: pdreker@debianforum.de

Benutzeravatar
CREEQ
Beiträge: 64
Registriert: 30.07.2002 19:04:58
Lizenz eigener Beiträge: GNU General Public License
Wohnort: Berlin
Kontaktdaten:

Beitrag von CREEQ » 01.08.2002 23:58:25

alles klar ...

danke für die info ...

mfg CREEQ

Antworten