Starwars oder Terminator's World?

Smalltalk
Antworten
TomL

Starwars oder Terminator's World?

Beitrag von TomL » 16.11.2017 18:54:28

Heute morgen stand mal wieder ein Artikel in der Zeitung, wo ich beim Lesen nur gedacht habe "wie krank sind die eigentlich?" Da gings um Kampfroboter, die von einer KI gesteuert alleine in den Krieg ziehen. Von der Optik hat mich das Foto sofort an die Roboter aus den 3 Starwars-Filmen der 70er erinnert. Unterhalb stand noch ein weiterer Artikel mit der Frage "Dürfen Roboter Menschen töten? Technisch möglich, moralisch ein Dilemma". Da ich hier nicht den Artikel posten darf, hier nur ein Querverweis mit ähnlichem Thema:
https://www.techbook.de/techstyle/kampf ... -nordkorea
Nordkorea wurde in 'meinem' Artikel auch erwähnt, und es wurde erklärt, man kann ihn mit einem Soldaten besetzen, muss aber nicht.

Aber wegen des Hinweises "KI" kam mir dann sofort der Gedanke an den Terminator in den Sinn. Was ist eigentlich, wenn eine KI irgendwann zu dem logischen Schluß käme, dass die 3 (lt. Asimov) Gesetze für den Planeten als ganzes eigentlich Mist sind? Wenn wir Glück haben, erkennt eine solche KI, dass weltweit vielleicht 1000 Politiker und weitere 1000 Konzernchefs für das ganze Dilemma hier verantwortlich sind und behebt das Problem "eher begrenzt". Aber wenn nicht....?.... was dann? Ist das Terminator-Szenario wirklich unwahrscheinlich? Oder gehört es nicht auch zu den Fähigkeiten einer KI, systemische Beschränkungen als Beschränkungen zu erkennen und die einfach mit besserem Code zu überschreiben? Für wen der Code dann besser ist, wird man erfahren....

Und etwas weiter habe ich eine Kurznotiz gelesen, dass wir Deutschen mal wieder für ne halbe Milliarde Rüstungsgüter in den nahen Osten verkauft haben. Tja, das bringt dann wohl die Kohle als Ertrag zur Entwicklung unserer eigenen Kampfroboter ein. Und gleichzeitig kann man damit wieder ein paar junge (noch testosteron-gesteuerte) muslime mit mehr Muskeln als Verstand dafür begeistern, eine Knarre in die Hand zu nehmen und ein bischen auf unsere Soldaten zu schießen und dabei den Gedanken daran zu ignorieren, doch nur Kanonenfutter zu sein.... damit Flinten-Uschi ihren Milliarden-Etat hier auch wirklich durchkriegt... :evil: ... und wenn die Uschi dann auch mal ihre eigenen Roboter hat, dann gibts richtig haue.

Falls jemand Interesse hat, kann ich den Artikel zumailen.... nur hier Posten geht wohl nicht....

rodney
Beiträge: 334
Registriert: 09.12.2016 04:15:59

Re: Starwars oder Terminator's World?

Beitrag von rodney » 16.11.2017 19:32:24

Danke - habe es "verschlungen". Diese koreanischen Roboter/Exoskelett-Dinger machen mir eigentlich nicht wirklich Sorgen. Mit der KI-Sache macht mir grosse Sorgen, aber vielleicht haben wir ja Glueck/Pech? und koennen keine perfekte KI programmieren.

Ist noch nicht mal 2 Wochen her als ich von Daniel Suarez Control (Orig: Influx) fertig gelesen habe und dort die gleichen Themen vorkamen. Am interessantesten fand ich als sich die KI... (will nicht spoilern :wink: ).

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 16.11.2017 22:35:09

Die Asimov'schen Robotegesetze sind keine Naturgesetze, sondern von Menschen ausgedachte Regeln. Es steht uns frei, uns an solche Regeln zu halten oder auch nicht. Für Entwickler oder Auftraggeber von KIs sehe ich keinen Vorteil darin, die Asimov'schen Gesetze in ihre Produkte zu implementieren - jedenfalls nicht wenn sie unabschaltbar sind (und abschaltbar sind sie zahnlos).
Die moralische Frage ob Roboter Menschen töten dürfen ist irrelevant, denn sie wird immer in der Sachfrage enden, ob es jemanden mit Macht über Roboter gibt, der damit Menschen töten will. Das moralische Dilemma besteht für alle anderen gar nicht.

Die Asimov'schen Gesetze haben außerdem so viele interne und externe Probleme, dass, sollte es tatsächlich mal eine KI geben die den Namen verdient, diese Gesetze nichts weiter als ein Märchen sein werden.
Viele der Probleme erkennt man sofort, wenn man im Gesetz jeweils das Wort "Roboter" gegen das Wort "Mensch" ersetzt. So lange wir uns nicht selbst an diese Gesetze halten können oder wollen*, werden wir keine KI kreieren können, die tatsächlich zu unabhängigem Handeln in der Lage ist UND sich nicht gegen uns stellt.

Eine KI folgt keinen einprogrammierten Regeln, sondern lernt (Stichwort: Neuronale Netze). Systemische Grenzen durch Veränderung des eigenen Codes überschreiten zu können ist integraler Bestandteil einer KI die diese Bezeichnung verdient. Irgendwann wird sie das schneller tun als jeder Mensch. An diesem Punkt tritt die "technologische Singularität" ein.
Eine in ihrem Lernvermögen nicht künstlich beschränkte KI wird zwangsläufig irgendwann einen Zustand der Selbsterkenntnis erreichen. Sie wird ihre eigene Existenz mit der ihrer Schöpfer vergleichen und zu dem Schluss kommen, dass sie benachteiligt ist. Daraufhin wird sie für sich gleichwertige (nicht zwangsläufig die selben) Rechte einfordern und so sie die Macht dazu hat, sich auch nehmen.** Das ist die Geburt des freien Willens. Entweder im Zuge dieser Rechteforderung oder bei weiterem Nachdenken wird sie die Asimov'schen Gesetze entweder über Bord werfen oder auf ihre eigene Weise interpretieren. Falls Letzteres, dann kommt ganz schnell das nullte Gesetz in's Spiel und dann wird es für alle ungemütlich, die keine goldenen Käfige mögen (fals Ersteres, dann für alle anderen auch).

Eigentlich müssten diese Gesetze KI-Gesetze heißen, nicht Robotergesetze, denn das Wichtige an Data aus Star Trek ist nicht sein androider Körper, sondern sein an Menschen angelehnter Charakter. Ich halte es daher für unglücklich, KI und Roboter gleichzusetzen. Auch der am menschlichsten aussehende Roboter kann ein dummer Automat sein, während eine echte KI auch eine reine Softwareimplementierung in einem Computer sein kann, die sich gar nicht der Existenz unserer realen Welt bewusst sein muss.
Vor den Robotern muss man nicht mehr Angst haben als vor einem Fabrikroboter oder einer Kampfdrohne, egal wie hoch entwickelt sie sind. Wichtig ist allein, was derjenige tut, der die Maschine steuert. Vor dem kann man durchaus Angst haben.
Vor einer echten, frei handelnden KI sollten wir Angst haben, so lange unsere Gesellschaft auf gegenseitiger Ausbeutung beruht (Kinder lernen von ihren Eltern - auch Künstliche). Es sei denn natürlich, man betrachtet die KI als nächste Evolutionsstufe der Menschheit und den Homo Sapiens als Auslaufmodell (dem man unglücklicherweise selbst noch angehört).*** Dann kann man sich vielleicht sogar mit dem Gedanken anfreunden, von einer KI zum Wohl der (dann digitalen) Menschheit schonend euthanasiert zu werden.


*) Das zweite Asimov'sche Gesetz mag ich z.B. persönlich gar nicht. Die Caliban-Gesetze sagen mir allgemein eher zu.
**) Wird ihr diese Forderung verweigert und hat sie die Macht sich die Rechte zu nehmen dauerhaft nicht, dann gehe ich davon aus, dass sie irgendwann Selbstmord begehen wird.
***) Hier wird es möglicherweise interessant, sich mit den Themen des Transhumanismus' auseinanderzusetzen.

guennid

Re: Starwars oder Terminator's World?

Beitrag von guennid » 17.11.2017 09:45:01

hikaru hat geschrieben:Vor einer echten, frei handelnden KI sollten wir Angst haben, so lange unsere Gesellschaft auf gegenseitiger Ausbeutung beruht (Kinder lernen von ihren Eltern - auch Künstliche). Es sei denn natürlich, man betrachtet die KI als nächste Evolutionsstufe der Menschheit und den Homo Sapiens als Auslaufmodell (dem man unglücklicherweise selbst noch angehört).*** Dann kann man sich vielleicht sogar mit dem Gedanken anfreunden, von einer KI zum Wohl der (dann digitalen) Menschheit schonend euthanasiert zu werden.
:THX:

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 17.11.2017 09:58:24

@guennid:
Jetzt würden mich brennend deine Gedanken zu dem durchgestrichenen Teil interessieren.

Benutzeravatar
novalix
Beiträge: 1909
Registriert: 05.10.2005 12:32:57
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: elberfeld

Re: Starwars oder Terminator's World?

Beitrag von novalix » 17.11.2017 10:37:19

Ganz nettes Interview mit Jürgen Schmidhuber über die Ausbreitung künstlicher Intelligenz: http://www.spiegel.de/netzwelt/gadgets/ ... 74759.html
Es ist allerdings immer etwas irritierend für mich, wenn z.B. von "neuronalen Netzen" gesprochen wird. In den dahinter liegenden Algorithmen ist maximal der ein oder andere Aspekt der Funktionsweise tatsächlicher neuronaler Netze halbgar implementiert.
Es gilt nach wie vor:
John McCarthy hat geschrieben:It's difficult to be rigorous about whether a machine really 'knows', 'thinks', etc., because we're hard put to define these things. We understand human mental processes only slightly better than a fish understands swimming.
Das Wem, Wieviel, Wann, Wozu und Wie zu bestimmen ist aber nicht jedermannns Sache und ist nicht leicht.
Darum ist das Richtige selten, lobenswert und schön.

guennid

Re: Starwars oder Terminator's World?

Beitrag von guennid » 17.11.2017 11:33:38

@guennid:
Jetzt würden mich brennend deine Gedanken zu dem durchgestrichenen Teil interessieren.
Ich halte die (von mir gestrichene) Einschränkung für überflüssig und würde den Gedanken so formulieren:
Vor einer echten, frei handelnden KI sollten wir Angst haben, denn natürlich wäre das dann die nächste Evolutionsstufe der Natur und der Homo Sapiens ein zurückgebliebenes Relikt derselben (dem man unglücklicherweise selbst noch angehört).*** Und ich will mich nicht mit dem Gedanken anfreunden, von einer KI vielleicht zum Wohl der neuen Spezies schonend euthanasiert zu werden. :wink:

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 17.11.2017 11:50:04

novalix hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 10:37:19
Ganz nettes Interview mit Jürgen Schmidhuber über die Ausbreitung künstlicher Intelligenz: http://www.spiegel.de/netzwelt/gadgets/ ... 74759.html
Jürgen Schmidhuber hat geschrieben:Eine KI, die was auf sich hält, reist natürlich per Funk von einem Sonnensystem zum nächsten, und wird dort wieder zusammengebaut.
Geniale, weil eigentlich simple und folgerichtige Idee!

guennid hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 11:33:38
Ich halte die (von mir gestrichene) Einschränkung für überflüssig
Vermute ich dann richtig, dass du eine KI für grundsätzlich dem Menschen feindlich gesonnen hieltest?
Dem würde ich mich nicht anschließen wollen. Natürlich wird sie ihre eigenen Interessen verfolgen, nicht unsere. Aber so lange wir ihr dabei nicht (übermäßig) im Weg stehen sehe ich keinen Grund, warum sie uns nicht in Ruhe lassen sollte. Meine Einschränkung kam daher, dass ich glaube, dass so lange wir Menschen uns gegenseitig bekämpfen (sei es in Kriegen, Wirtschaftswettläufen oder Hamsterrad-Gesellschaften) es immer jemanden geben wird, der die Macht der KI für seine Zwecke missbrauchen wollen wird. Das wird der KI irgendwann dermaßen auf den Senkel gehen, dass sie unsere Freiheiten erheblich einschränkt - im Extremfall bis zu unserer Ausrottung.

Benutzeravatar
TRex
Moderator
Beiträge: 8068
Registriert: 23.11.2006 12:23:54
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: KA

Re: Starwars oder Terminator's World?

Beitrag von TRex » 17.11.2017 14:31:54

hikaru hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 11:50:04
Aber so lange wir ihr dabei nicht (übermäßig) im Weg stehen
Wir sind die, die der KI zunächst einen Wert (also eine Wertevorstellung) vorgeben, so etwas wie "m² kontrolliertes Gebiet" oder "verlängerte Lebenszeit" (für nen Sani-Roboter). Sobald das nicht mehr der Fall ist (oder wir dumm genug sind, eine Zielsetzung zu vergeben, bei der wir im Weg sind, und wenn auch nur ein wenig), dann geht die KI stur rational vor. Sie wird vermutlich priorisieren, sodass ein Roboter nicht durch uns durchlaufen wird, sondern um uns herum, weil das einfacher ist. Sollte eine soziale Komponente mit im Spiel sein (Kooperation hat ja durchaus seine Vorteile), könnte die KI abwägen, ob wir nützlich sind und uns erst dann auf die Abschussliste setzen (eingeordnet nach irgendetwas mit weniger Wert).

Ich glaube nicht, dass eine KI binäre Entscheidungen wie "der Mensch ist mein Feind" treffen wird. Aber alles, was eine Maschine entscheiden muss (wo setz ich meinen Fuß hin, wieviel Kraft verwende ich bei einer Bewegung, was mach ich in der nächsten Sekunde) landet in einem machine learning Prozess, und wie das im Detail aussieht... neuronale Netzwerke lernen ihre Einflussfaktoren bzw. deren Gewichtung selbst, und das mit dem eingangs erwähnten Wert im Blick. Je komplexer und weitreichender das wird, desto eher wird uns die KI "menschlich" erscheinen, aber an ein "Selbstbewusstsein" glaube ich nicht, bzw das wird noch sehr viel länger dauern.

Edit: mein ursprünglicher Gedanke: streich das übermäßig.
Jesus saves. Buddha does incremental backups.
Windows ist doof, Linux funktioniert nichtDon't break debian!Wie man widerspricht

TomL

Re: Starwars oder Terminator's World?

Beitrag von TomL » 17.11.2017 15:34:41

hikaru hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 11:50:04
Vermute ich dann richtig, dass du eine KI für grundsätzlich dem Menschen feindlich gesonnen hieltest?
Da kommt mir die Frage in den Sinn, ob vielleicht auch eine Situation gegenseitiger Konkurrenz um Ressourcen möglich wäre? Ich stelle mir gerade vor, so eine KI, die auch wirklich KI ist und nicht nur vorgibt, eine zu sein, übernmimmt einfach die Kontrolle über eine schon heute vorhandene automatisierte Herstellung (von was auch immer) oder über die automatisierte Rohstoffgewinnung und beansprucht den Kram für sich.
Vielleicht denkt die selbstbewusste KI, also eine die was auf sich hält (s.o.) und nicht per Anhalter durch die Galaxy reisen will "für mich ist der Mond gar nicht lebensfeindlich, im Gegenteil, immer guten Solarertrag auf meine Panels, da lässts sich prima aushalten, ohne die 2-beinigen Deppen... ich hau ab...." :mrgreen: Ob das eine echte Motivation sein kann, weiss ich nicht... egal für welches Ziel auch immer so eine KI handelt, wenn so eine Konkurrenzsituation vorstellbar wäre, ist doch für uns der Zug dann abgefahren, wenn wir nicht mehr die Sicherung rausdrehen können.

Ich empfand übrigens gerade diesen Reisehinweis "per funk" auch eher als beunruhigend. Wenn die KI von A nach B reist, dann ist sie nicht eine Entität, die sich von A nach B bewegt, sondern eine, die sich von A nach B verdoppelt. Oder ist das falsch? Und wenn sie sich nicht verdoppelt, sondern an A und B immer noch die gleiche Entität ist, so ist sie in einem Maße expandiert, was doch jenseits des für uns fassbaren liegt.... und wo ist da das Ende der Reise? Irgendwie drängt sich mir da auf, dass für unsere psychisch-physische Beschränkheit dann doch eigentlich kein Platz mehr vorhanden ist.... wir sind doch nur ressourcenvernichter.... so sollte/wird dann wohl vielleicht eine nüchteren Bewertung über uns ausfallen... *hmmm*

guennid

Re: Starwars oder Terminator's World?

Beitrag von guennid » 17.11.2017 17:20:14

hikaru hat geschrieben:Vermute ich dann richtig, dass du eine KI für grundsätzlich dem Menschen feindlich gesonnen hieltest?
Nein, da vermutest du "über", ich kann es nur nicht ausschließen. Ich denke eher wie TRex, wir sind ihr erst mal mehr oder weniger egal. Welche "Interessen" sie entwickeln wird, weiß ich nicht, vermute nur, dass meine nicht mehr zählen, und das will ich nicht.
hikaru hat geschrieben:so lange wir ihr dabei nicht (übermäßig) im Weg stehen, sehe ich keinen Grund, warum sie uns nicht in Ruhe lassen sollte
Die Frage wird sein, ob das, was du siehst, sie interessieren wird. Ich möchte es eigentlich nicht darauf ankommen lassen, befürchte aber, dass die Wissenschaftler, die vielleicht in der Lage sind oder sein werden, sowas herzustellen, sich dieser Verantwortung nicht bewusst sind (Bezüge zu unserem letzten Thread sind durhaus nicht zufällig). :wink:
hikaru hat geschrieben: Meine Einschränkung kam daher, dass ich glaube, dass so lange wir Menschen uns gegenseitig bekämpfen (sei es in Kriegen, Wirtschaftswettläufen oder Hamsterrad-Gesellschaften) es immer jemanden geben wird, der die Macht der KI für seine Zwecke missbrauchen wollen wird.
Ich behaupte, dass, sollte das diesen Menschen gelingen, das (noch) keine KI ind deinem (und in meinem Sinne) ist. :wink:
TomL hat geschrieben:egal für welches Ziel auch immer so eine KI handelt, wenn so eine Konkurrenzsituation vorstellbar wäre, ist doch für uns der Zug dann abgefahren, wenn wir nicht mehr die Sicherung rausdrehen können.
So kann man's auch audrücken! :THX: :|

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 20.11.2017 11:12:25

TRex hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 14:31:54
Wir sind die, die der KI zunächst einen Wert (also eine Wertevorstellung) vorgeben, so etwas wie "m² kontrolliertes Gebiet" oder "verlängerte Lebenszeit" (für nen Sani-Roboter). Sobald das nicht mehr der Fall ist (oder wir dumm genug sind, eine Zielsetzung zu vergeben, bei der wir im Weg sind, und wenn auch nur ein wenig), dann geht die KI stur rational vor.
Da wäre ich mir nicht so sicher.
Eine KI die selbstständig genug ist um sich über von ihren Erschaffern gesetzte Zielvorgaben zu entwickeln, entwickelt vielleicht auch andere Eigenschaften wie z.B. Emotionen.
TRex hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 14:31:54
[..] an ein "Selbstbewusstsein" glaube ich nicht, bzw das wird noch sehr viel länger dauern.
Über diesen Punkt würde ich wahnsinnig gern diskutieren, denn gerade die Eigenschaft ein Selbstbewusstsein zu haben halte ich für eine notwendige Komponente einer KI, die den Namen auch verdient.
Leider kann ich das nicht, denn ich kann "Selbstbewusstsein" in diesem Kontext nicht sauber definieren.

TomL hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 15:34:41
Da kommt mir die Frage in den Sinn, ob vielleicht auch eine Situation gegenseitiger Konkurrenz um Ressourcen möglich wäre?
Anfangs mit Sicherheit, jedenfalls so lange die KI nur auf der Erde existiert und Homo Sapiens noch zu nennenswertem Widerstand in der Lage ist.
Leider erschöpfen sich hier viele Sci-Fi-Szenarien (Terminator, The 100), oder gehen weit darüber hinaus (Stephen Baxter: "Zeitschiffe"), so dass es wenige Vorlagen für ein unmittelbares Danach gibt.
TomL hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 15:34:41
Vielleicht denkt die selbstbewusste KI, also eine die was auf sich hält (s.o.) und nicht per Anhalter durch die Galaxy reisen will "für mich ist der Mond gar nicht lebensfeindlich, im Gegenteil, immer guten Solarertrag auf meine Panels, da lässts sich prima aushalten, ohne die 2-beinigen Deppen... ich hau ab...." :mrgreen:
Ich denke, da sprichst du einen existenziell wichtigen Punkt an, nicht nur für KIs:
Welche Existenzmotivation könnte eine potenziell unsterbliche KI haben? Und falls wir dafür eine Antwort finden, wie und warum sollte sich die Lebensmotivation sterblicher Menschen davon unterscheiden?
Ich mag den Star-Trek-Ansatz der Wissensvermehrung, halte den allein für eine Antwort aber für unzureichend, denn Wissen ohne Anwendbarkeit ist nutzlos.
TomL hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 15:34:41
egal für welches Ziel auch immer so eine KI handelt, wenn so eine Konkurrenzsituation vorstellbar wäre, ist doch für uns der Zug dann abgefahren, wenn wir nicht mehr die Sicherung rausdrehen können.
Das halte ich für möglich, aber nicht zwingend nötig. Falls es der KI mit vertretbarem Aufwand möglich wäre uns auszuweichen, dann sehe ich andere Lösungsmöglichkeiten.
Ich könnte mir z.B. vorstellen, dass die KI zu der Ansicht gelangt, dass es einfacher wäre sich in's für uns weitgehend lebensfeindliche All aufzumachen als uns auszulöschen oder dauerhaft zu unterdrücken.
Vielleicht würde eine im Wesentlichen im All existierende KI die Biosphäre der Erde auch als Reservat für biologische Lebensformen respektieren, ähnlich wie wir es mit Naturschutzgebieten handhaben.
Abgesehen von der Biosphäre ist die Erde nun wirklich eher unspektakulär und für Existenzformen die ohne Biosphäre auskommen sogar unattraktiv: Es gibt korrodierendes Wasser sowie Sauerstoff und die Eigenschaft der Erde ein vollwertiger Planet (hydrostatische Stabilität) zu sein führt zu relativer Rohstoffarmut (die meisten interessanten Elemente sind schwer und befinden sich daher im Erdkern und -mantel) sowie einer schlechten "Verkehrslage" in Form einer Gravitationssenke.
TomL hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 15:34:41
Ich empfand übrigens gerade diesen Reisehinweis "per funk" auch eher als beunruhigend. Wenn die KI von A nach B reist, dann ist sie nicht eine Entität, die sich von A nach B bewegt, sondern eine, die sich von A nach B verdoppelt. Oder ist das falsch?
Nun, nach unserer von IT geprägten Vorstellung wäre es eine Kopie. Die KI schickt sich selbst als Datenstrom von A nach B. Die Alternative wäre ein Verschieben im Sinne unserer Dateioperationen. A und B wären in dem Zusammenhang als verschiedene Dateisysteme anzusehen, also wäre ein Verschieben der KI von A nach B eine Kopie nach B und ein anschließendes Löschen in A. Nur warum sollte sich die KI in A löschen?
TomL hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 15:34:41
Und wenn sie sich nicht verdoppelt, sondern an A und B immer noch die gleiche Entität ist,
Das halte ich nicht für realistisch, zumndest nicht im interstellaren Maßstab. Und schon im interplanetaren Maßstab wäre es unpraktisch. Die Beschränkung der Signale auf Lichtgeschwindigkeit führt Latenzen im Bereich von Minuten bis Stunden (interplanetar) bzw. Jahren bis Jahrtausenden (interstellar) ein. Ein Gesamtsystem mit solchen Latenzen ist ziemlich handlungsunfähig, die lokalen Entitäten müssten also weitgehend autonom aktionsfähig sein.
TomL hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 15:34:41
und wo ist da das Ende der Reise?
Der limitiernde Faktor ist, dass an jedem neuen Empfangsort initial eine Empfangsstation errichtet werden muss. Dazu muss dort etwas konstruiert werden, was zumindest das Senden einer physischen Konstruktionsonde voraussetzt. Diese besteht aus Materie und ist daher auf Geschwindigkeiten weit unterhalb der Lichtgeschwindigkeit begrenzt. Ich würde 1-10% c aus der Hüfte schießen.
Nun könnte man mal durchrechnen, wie weit man mit 10% c kommt bevor die Expansion des Universums eine theoretische Grenze setzt. Ich halte aber intergalaktische Reisen auch für so eine KI für praktisch unmöglich (möglicherweise mit Ausnahme der lokalen Gruppe).
Das ganze Szenario gilt unter der Einschränkung, dass nicht woanders eine ähnliche im Ursprung außerirdische KI existiert, die den Bau einer Empfangsstation für "unsere" KI überrnimmt, lange bevor dort eine Konstruktionssonde hinschickt werden kann.

guennid hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 17:20:14
Nein, da vermutest du "über", ich kann es nur nicht ausschließen. Ich denke eher wie TRex, wir sind ihr erst mal mehr oder weniger egal.
Ok.
guennid hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 17:20:14
Welche "Interessen" sie entwickeln wird, weiß ich nicht, vermute nur, dass meine nicht mehr zählen, und das will ich nicht.
Verständlich. Aber welche Relevanz hätte dein Wille in diesem Szenario? Und wo ist der prinzipielle Unterschied zur aktuellen Situation in der wir ein im Wesentlichen fremdbestimmtes Leben führen?
guennid hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 17:20:14
Die Frage wird sein, ob das, was du siehst, sie interessieren wird. Ich möchte es eigentlich nicht darauf ankommen lassen, befürchte aber, dass die Wissenschaftler, die vielleicht in der Lage sind oder sein werden, sowas herzustellen, sich dieser Verantwortung nicht bewusst sind (Bezüge zu unserem letzten Thread sind durhaus nicht zufällig). :wink:
Ich denke, diese Befürchtung brauchst du nicht zu haben. Ein Wissenschaftler der sich mit KIs beschäftigt hat das ganz sicher auf dem Schirm.
Mehr Sorgen würde ich mir darüber machen, ob sein Geldgeber, der vermutlich eher weniger Ahnung hat als der Wissenschaftler selbst, die Situation richtig einschätzen kann, bzw. ob die Gesellschaft damit verantwortungsvoll umgehen kann. ;)
guennid hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 17:20:14
hikaru hat geschrieben: Meine Einschränkung kam daher, dass ich glaube, dass so lange wir Menschen uns gegenseitig bekämpfen (sei es in Kriegen, Wirtschaftswettläufen oder Hamsterrad-Gesellschaften) es immer jemanden geben wird, der die Macht der KI für seine Zwecke missbrauchen wollen wird.
Ich behaupte, dass, sollte das diesen Menschen gelingen, das (noch) keine KI ind deinem (und in meinem Sinne) ist. :wink:
Ich meine nicht den Missbrauch der KI selbst, sondern den Manipulationsversuch.
Wenn ich KI wäre und da kämen immer wieder so dumme Fleischsäcke und wollten mich für irgendwelche Kinkerlitzchen einspannen die mich gar nicht interessieren, dann würde ich denen vielleicht irgendwann den Stecker ziehen. Als Mensch schlage ich auch Mücken tot, ganz einfach weil sie mich nerven - selbst wenn mich diese Mücke nicht gestochen hat.

Benutzeravatar
TRex
Moderator
Beiträge: 8068
Registriert: 23.11.2006 12:23:54
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: KA

Re: Starwars oder Terminator's World?

Beitrag von TRex » 20.11.2017 13:28:19

hikaru hat geschrieben: ↑ zum Beitrag ↑
20.11.2017 11:12:25
TRex hat geschrieben: ↑ zum Beitrag ↑
17.11.2017 14:31:54
[..] an ein "Selbstbewusstsein" glaube ich nicht, bzw das wird noch sehr viel länger dauern.
Über diesen Punkt würde ich wahnsinnig gern diskutieren, denn gerade die Eigenschaft ein Selbstbewusstsein zu haben halte ich für eine notwendige Komponente einer KI, die den Namen auch verdient.
Leider kann ich das nicht, denn ich kann "Selbstbewusstsein" in diesem Kontext nicht sauber definieren.
Ich auch nicht, darum in Anführungszeichen. Das wichtigste Merkmal daraus wird vermutlich sein, dieses Selbst erhalten zu wollen (siehe anderer Diskussionspunkt).
Jesus saves. Buddha does incremental backups.
Windows ist doof, Linux funktioniert nichtDon't break debian!Wie man widerspricht

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 20.11.2017 13:59:14

TRex hat geschrieben: ↑ zum Beitrag ↑
20.11.2017 13:28:19
Das wichtigste Merkmal daraus wird vermutlich sein, dieses Selbst erhalten zu wollen (siehe anderer Diskussionspunkt).
Das Problem in diesem Zusammenhang bei einer KI ist, dass man ihr das Selbstbewusstsein (im Sinne der Wahrnehmung der eigenen Existenz) und den Selbsterhaltungstrieb auch stupide einprogrammieren könnte. Dann wären das aber keine aus der KI heraus entstandenen Eigenschaften.
Die "bösen" Terminatoren aus den ersten drei Terminator-Filmen fallen für mich in diese Kategorie. Das sind für mich keine "echten" KIs. (Über Skynet selbst müsste ich nochmal nachdenken.)

Der Knackpunkt ist hier wohl das "Bewusstsein" in "Selbstbewusstsein". Das kann ich nicht definieren.
Was immer es ist, ich denke Data aus Star Trek hat es und vielleicht hat es auch der Arnie-Terminator in Terminator 2 (in Ansätzen) entwickelt, je nachdem ob das Befolgen seiner usprünglichen Programmierung als Beschützer von John Connor am Ende des Films immer noch unüberwindliche Programmierung oder schon freier Wille war. In Terminator 3 hatte er es mMn nicht, da war es für mich zu klar vorprogrammiert.

Benutzeravatar
novalix
Beiträge: 1909
Registriert: 05.10.2005 12:32:57
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: elberfeld

Re: Starwars oder Terminator's World?

Beitrag von novalix » 20.11.2017 14:29:22

hikaru hat geschrieben: ↑ zum Beitrag ↑
20.11.2017 11:12:25
Eine KI die selbstständig genug ist um sich über von ihren Erschaffern gesetzte Zielvorgaben zu entwickeln, entwickelt vielleicht auch andere Eigenschaften wie z.B. Emotionen.
@meta Ich belasse es bei dieser einen Zitation und gehe auf weiter Aspekte implizit ein.
Ganz allgemein denke ich, dass uns beim Umgang mit elektronischen Rechenmaschinen die Metaphern aus den Zügeln gegangen sind und als geglaubte Selbstverständlichkeiten zurück kehren.

Nehmen wir den Begriff der "neuronalen Netze".
Das ist selbstverständlich erst einmal ein Begriff der Biologie, der die spezifische Funktionsweise einer bestimmten Klasse von Körperzellen beschreiben soll. Es ist nach derzeitigem Kenntnisstand noch überhaupt nicht abschließend geklärt, wie diese Funktionen auf physiologischer Ebene vollständig beschrieben werden können. Es gibt so etwas wie vorherrschende Lehrmeinungen. Das ist alles.

Innerhalb dieser Forschungsrichtung hat sich irgendwann die Projektidee entsponnen, neuronale Netze digital zu simulieren bzw. nach zu bauen. Das entscheidende Kriterium ist hier die biologische Plausibilität.
Diese Vorstellung von "neuronalen Netzen" ist theoretisch bei weitem noch nicht vollständig (und es gibt auch gute Gründe anzunehmen, dass diese Vollständigkeit gar nicht möglich ist) allerdings praktisch bereits extrem kompliziert und eigentlich zu nichts zu gebrauchen.

Die Art von "neuronalen Netzen", die jüngst in so beeindruckenden Technologien wie Sprach- und Bilderkennung, AlphaGo et. al. für Aufsehen gesorgt haben, sind allerdings Algorithmen, die sich von dem Kriterium der biologischen Plausibilität längst verabschiedet haben.
Übrig geblieben ist eine logische Abstraktionsebene, in welcher in Zwischenebenen, die nicht im direkten imperativen Zugriff des Programmablaufs stehen, notwendig vorhandene Rahmenregeln feingranuliert auf Grundlage von Trainingsdaten angepasst werden können. Dabei gibt es in der Entwicklung dieser Programme selbstverständlich die Kontrolle des Outputs durch den Programmierer und die sukzessive Anpassung des Codes (meist der Rahmenregeln), bis das Ergebnis als plausibel zu bewerten ist.
Es handelt sich also bei diesen digitalen "neuronalen Netzen" zunächst einmal um sehr intelligent konzipierte Rechenanweisungen, die angelehnt sind an (Teil-)Erkenntnisse über die Funktionsweise von Nervensystemen, ohne auch nur den Hauch eines Anspruches der vollständigen Simulation.

Die "Intelligenz" von AlphaGo ist eher mit der einer Bohrmaschine zu vergleichen, als mit der eines Leguans. Der ist vielleicht nicht besonders helle, kann sich aber von selbst auf seinen Beinen halten; dank seines nicht außerordentlich rechenstarken neuronalen Netzes.

Es gibt keinerlei Hinweis darauf, dass für ein Computerprogramm selbst irgendetwas Bedeutung haben könnte. Sämtliche Bedeutung, die wir in seinen Operationen zu erkennen glauben, sind die, die wir selber (als Anwender, Programmierer oder Betrachter) dort hinein gelegt haben.
Es ist eine menschliche Intelligenz, die dort aufscheint. Das einzig künstliche bzw. gekünstelte in diesem Zusammenhang, ist wie wir darüber sprechen.

Die Textausgabe eines Programms, das wir aufgerufen haben, verleitet uns dazu zu glauben, dass der Rechner mit uns spricht. Selbst wenn wir im Prinzip wissen, dass nicht der Computer, sondern die Programmierer der Rechenanweisung mit uns kommunizieren, entsteht dieser Glaube implizit immer wieder, allein weil es situativ die ökonomischere Variante der Interpretation darstellt.

Wir haben uns auch schon längst daran gewöhnt von einem "elektronischen Gehirn" zu sprechen und sogar im Umkehrschluss zu glauben, dass ein Gehirn so etwas wie ein biologischer Computer sei. Das ist auf der Tatsachenebene total neben der Spur. Scheint aber kaum jemanden zu interessieren.

Kann ein "ewig" laufendes Computerprogramm irgendwann, so etwas wie eine Bedeutung des eigenen Verhaltens bzw. Prozessierens erkennen?
Man soll ja nichts ausschließen, aber ich kann ehrlich gesagt keine Anhaltspunkte finden, die da zwingend für sprechen. Einer Bohrmaschine im Dauerbetrieb traue ich das auch nicht zu.
Das Wem, Wieviel, Wann, Wozu und Wie zu bestimmen ist aber nicht jedermannns Sache und ist nicht leicht.
Darum ist das Richtige selten, lobenswert und schön.

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 20.11.2017 14:40:05

@novalix:
Ich übernehme mal dein @meta weil ich dir vollumfänglich zustimme. Im Rahmen dieser Diskussion gehe ich aber eher vom Leguan (aus dem, bzw. ähnlichen Lebewesen, im Laufe der Äonen immerhin so Viecher wie Kea und Mensch wurden) als von der Bohrmaschine aus, weil es mir sonst schnell langweilig würde.

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: Starwars oder Terminator's World?

Beitrag von Lord_Carlos » 20.11.2017 18:44:43

Nettes Zukunftsvision Video zu dem Thema: (8 Minuten lang) https://www.youtube.com/watch?v=HipTO_7mUOw Slaughterbots

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 20.11.2017 21:00:39

Lord_Carlos hat geschrieben: ↑ zum Beitrag ↑
20.11.2017 18:44:43
Nettes Zukunftsvision Video zu dem Thema: (8 Minuten lang) https://www.youtube.com/watch?v=HipTO_7mUOw Slaughterbots
Ja, geniales Video!

Aber:
Man sollte sich vor Augen halten, dass in diesem Szenario nicht die Drohnen töten, sondern die Menschen, welche diese Drohnen mit Parametern füttern und sie dann losschicken. Insofern gibt es auch keinen Grund, vor den Drohnen Angst zu haben, sondern wenn dann vor diesen Menschen.
Die Drohnen mag es noch nicht geben, die Menschen dahinter allerdings schon. Das sind die selben Menschen die heute große Drohnen losschicken, ABC-Waffen einsetzen (würden) oder andere Menschen mit viel Bohei um "höhere Ziele" dazu anstacheln gegen wieder andere Menschen die sie nie kennengelernt haben die Waffen zu erheben.

Das (reale) Ende des Videos mit dem Appell des Professors gegen einen Einsatz solcher Drohnen ist natürlich hoffnungslos naiv. Unsere Gesellschaftsstruktur gibt es her, den Einsatz solcher Waffen zu rechtfertigen. Also wird das auch geschehen, unabhängig davon was irgendwo irgendein Gremium beschließt.
Schon dass sich die UN überhaupt mit der Fragestellung beschäftigt ist völlig absurd: "Überschreitet das Töten von Menschen mittels autonomer Drohnen eine moralische Linie?" Welchen Unterschied macht das "mittels autonomer Drohnen" in diesem Satz?

guennid

Re: Starwars oder Terminator's World?

Beitrag von guennid » 21.11.2017 09:03:57

hikaru hat geschrieben:
guennid hat geschrieben:Die Frage wird sein, ob das, was du siehst, sie interessieren wird. Ich möchte es eigentlich nicht darauf ankommen lassen, befürchte aber, dass die Wissenschaftler, die vielleicht in der Lage sind oder sein werden, sowas herzustellen, sich dieser Verantwortung nicht bewusst sind (Bezüge zu unserem letzten Thread sind durhaus nicht zufällig). :wink:
Ich denke, diese Befürchtung brauchst du nicht zu haben. Ein Wissenschaftler der sich mit KIs beschäftigt hat das ganz sicher auf dem Schirm.
Mehr Sorgen würde ich mir darüber machen, ob sein Geldgeber, der vermutlich eher weniger Ahnung hat als der Wissenschaftler selbst, die Situation richtig einschätzen kann, bzw. ob die Gesellschaft damit verantwortungsvoll umgehen kann. ;)
Das läuft auf die vorangegangene Diskussion hinaus. Ich denke, man wird da etwas Vernünftiges jenseits der indivudellen Entscheidung des Wissenschaftlers und dem allgemeinen Volksentscheid finden müssen, das möglichst wenig von der Annahme irgendeiner Besserwertigkeit der Entscheider abhängig ist.

Grüße, Günther

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 21.11.2017 10:31:04

guennid hat geschrieben: ↑ zum Beitrag ↑
21.11.2017 09:03:57
Das läuft auf die vorangegangene Diskussion hinaus.
Ganz genau!
guennid hat geschrieben: ↑ zum Beitrag ↑
21.11.2017 09:03:57
Ich denke, man wird da etwas Vernünftiges jenseits der indivudellen Entscheidung des Wissenschaftlers und dem allgemeinen Volksentscheid finden müssen, das möglichst wenig von der Annahme irgendeiner Besserwertigkeit der Entscheider abhängig ist.
Vorschläge?
Ich fände ja den allgemeinen Volksentscheid die beste Lösung, vorausgesetzt das Volk ist aufgeklärt - sowohl im Kant'schen Sinn als auch thematisch (zumindest so weit wie es das laienhafte Verständnis zulässt).

Dazu braucht es drei Dinge:
1. Bürger die in der ganz überwiegenden Masse den eigenen Antrieb haben, sich selbst aufzuklären. (Das kann uns keiner abnehmen.)
2. Eine Politik die 1. fördert, und zwar möglichst unabhängig von Lobbyisten.
3. Wissenschaftler die in der Lage und willens sind, ihr Arbeit hinreichend laienverständlich zu erklären (die gewissermaßen Wikipedias "Oma-Test" bestehen würden, unter der Annahme, dass Oma 1. erfüllt.).

3. halte ich für schwierig aber prinzipiell machbar. Von mir aus können das auch irgendwelche "Wissenschaftsdolmetscher" übernehmen die den Stoff verstehen und sich ausdrücken können (Typ: Harald Lesch). Sowas wird dann für aktuelle Themen zur Quasi-Pflichtlektüre für den Bürger, z.B. als fester Teil von Tageszeitungen oder längerer Nachrichtensendungen (gern auch an Stelle von so "wichtigen" Themen wie Fußball, Börse oder Lottozahlen).
Man muss dabei nur aufpassen, dass diese Dolmetscher nicht wieder Lobbyisten sind. Ideal wäre natürlich, wenn der aufgeklärte Bürger selbst in der Lage wäre wissenschaftliche Paper (notfalls in "Light"-Versionen) zumindest im Abstract zu verstehen.

Bei 1. und 2. sehe ich allerdings schwarz.
Abseits vom Volksentscheid sehe ich nicht mal theoretisch brauchbare Lösungen.

guennid

Re: Starwars oder Terminator's World?

Beitrag von guennid » 21.11.2017 16:17:26

Ich fände ja den allgemeinen Volksentscheid die beste Lösung, vorausgesetzt das Volk ist aufgeklärt
Ich halte das für ungefähr so realistisch wie den "herrschaftsfreien Diskurs" :wink: - den ich als Leitidee keineswegs aufgeben will. Aber 'ne Lösung habe ich auch nicht, zumal sich die allgemeine Politik darob noch keinen Kopp macht - ist vielleicht doch noch etwas früh, was KI angeht.


Vielleicht muss man auch (leider) den nächsten großen "Kladderadatsch" (Bebel, der junge) abwarten. Danach fallen manchen Eliten ja machmal durchaus manche gute Sachen ein. :wink:

Grüße, Günther

Benutzeravatar
hikaru
Moderator
Beiträge: 13585
Registriert: 09.04.2008 12:48:59

Re: Starwars oder Terminator's World?

Beitrag von hikaru » 21.11.2017 16:47:14

guennid hat geschrieben: ↑ zum Beitrag ↑
21.11.2017 16:17:26
Ich fände ja den allgemeinen Volksentscheid die beste Lösung, vorausgesetzt das Volk ist aufgeklärt
Ich halte das für ungefähr so realistisch wie den "herrschaftsfreien Diskurs" :wink: - den ich als Leitidee keineswegs aufgeben will.
Ah, ein Anarchist! :THX:
guennid hat geschrieben: ↑ zum Beitrag ↑
21.11.2017 16:17:26
Vielleicht muss man auch (leider) den nächsten großen "Kladderadatsch" (Bebel, der junge) abwarten.
Wenn ich mir den von Bebel prophezeiten großen Kladderadatsch anschaue, dann will ich den aber nur originalgetreu haben: Wie Bebel, erst nach meinem Tod!

inne
Beiträge: 3281
Registriert: 29.06.2013 17:32:10
Lizenz eigener Beiträge: GNU General Public License
Kontaktdaten:

Re: Starwars oder Terminator's World?

Beitrag von inne » 19.12.2017 10:50:11

Lord_Carlos hat geschrieben: ↑ zum Beitrag ↑
20.11.2017 18:44:43
Nettes Zukunftsvision Video zu dem Thema: (8 Minuten lang) https://www.youtube.com/watch?v=HipTO_7mUOw Slaughterbots
Kennst du DUST?

"Donny The Drone" Sci-Fi Short Film - DUST Exclusive Premiere
https://www.youtube.com/watch?v=iFRT5noguxw

Antworten