The First Law - erster Roboter der bewusst Schmerzen zufügt

Blutiges Experiment: Roboter verletzt “bewusst” und “böswillig” Menschen | heise online

Auf Heise geht grad ein interessanter Artikel steil: Der erste Roboter der “bewusst” gegen das erste Robotergesetz verstößt. Ein dortiger Foren-Beitrag, dem ich mich anschließe, heißt: Er macht worauf er programmiert ist und kann mangels Bewusstsein nicht bewusst gegen dieses “Gesetz” verstoßen.
Wie seht ihr das: Kann eine Maschine die darauf programmiert wurde “zu töten” und der das nötige “Bewusstsein” fehlt die drei Robotergesetze überhaupt zu verstehen überhaupt “bewusst” gegen diese verstoßen?

Meine Meinung dazu ist im Grunde immer: Was interessiert einen Roboter diese 3 “Gesetze”? Ist ja nicht so, als das man einen Roboter baut und zack kennt er die und hält sich daran. Oder er ohne, dass er was dagegen tun kann, gestoppt wird, sollte er gegen eines verstoßen.
Die Idee mir den 3 Gesetzen ist ja ganz nett aber muss auch praktisch und richtig umgesetzt werden ansonsten ist es nur theoretisches Wunschdenken.

Wenn man mal davon absieht, dass es ja schon genug Roboter gab/gibt die Menschen verletzt und getötet haben, ohne dass das ihr Zweck war

Den Aufmacher hatte ich auch gelesen. Beim letzten Satz des Aufmachers, „Es geht ihm um eine Ethikdebatte“ habe ich dann aber … Dinge gedacht…
Grob: Aha, jemand der Germanistik und Ethik studiert hat, und jetzt mit Fischertechnik irgendeinen Pseudodreck zusammenschustert und da irgendein Science-Fiction-Schlagwort damit verknüpft um Relevanz vorzugaukeln und Aufmerksamkeit zu erregen…(ich denke manchmal sehr harsche Sachen :rolleyes: )
… die mich veranlasst hatten, nicht weiterzulesen.

Es gibt sicher viele Fragen, die sich im Moment sehr akut stellen. Abgesehen vom Reizthema „Drohnen“ auch die (schon an anderer Stelle diskutierte) Frage, ob das selbstfahrende Auto nun den alten Mann oder die alte Frau überfahren soll, wenn es die Wahl hat. (Ladies first :slight_smile: ). Und mit einer gewissen Verbitterung erwähne ich, dass ich mir der Ironie bewußt bin, dass das angestrebte Ziel, dessen Offensichtlichmachen was mich dazu veranlasst hatte, NICHT weiterzulesen, hiermit schon fast erfüllt ist. Aber leider kann ich jetzt nicht weiterschreiben, ich hab’ noch was zu tun: Ich kacke jetzt in einen Eimer Kaviar und stelle ein YouTube-Video davon ins Netz. Es geht mir um eine Neiddebatte.
Hm.
Sorry.
Bin heute nicht so konstruktiv, was das angeht.
Deswegen nur die obligatorische xkcd-Referenz: xkcd: The Three Laws of Robotics

Spannendes Thema, wir haben Drohnen die selbständig Handys orten und mit Luft/Boden Raketen aufgrund dieser Daten ganze Wohnblöcke in Schutt und Asche legen, und die Debatte soll angeregt werden durch einen Roboter der Leute in den Finger piekst? An der innerkoreanischen Grenze gibt es Grenzschutzroboter von Samsung die auf Personen im Grenzbereich schießen sollen…

Die Debatte läuft seit Jahren, wenn er das bisher nicht bemerkt hat, dann scheint er sich mit dem Thema bisher noch nicht sonderlich gut beschäftigt zu haben. Die “drei Gesetze” sind eine schöne Idee, aber wie für alle schönen Ideen gilt: Wenn die Voraussetzung ist, dass sich alle Menschen bewusst daran halten müssen, wird es nicht funktionieren.

Mir ging beim Lesen des Artikels nur durch den Kopf: was für ein Schwachsinn. Und zwar mit genau der Begründung, die @Clayn schon geschrieben hat. Ein Roboter macht genau das, was der Mensch ihm aufgetragen hat. Und die “drei Gesetze” kennt er nicht, solange sie in seiner Programmierung nicht vorhanden sind.
Und irgendeine Form von Bewusstsein wurde im Artikel auch nicht beschrieben. Wenn dort wenigstens stünde, dass es eine KI ist, die sich wirklich zu etwas entscheiden könnte. Aber das hört sich so an, als wäre es eine Nadel, die per Zufallsgenerator zusticht. Herzlichen Glückwunsch, was für eine Leistung!

Hab darüber auf Golem gelesen und klingt für mich nach “Sehet her, ich will Aufmerksamkeit”. Das wir Roboter haben die töten ist längst bekannt. Wo liegt denn hier z.B. der Unterschied zu einer ferngesteuerten Drohne die “nur” auf Knopfdruck tötet. Letztendlich dürfte sie ja gar nicht schießen. Und streng genommen scheitert das ja auch daran, dass hier keine wirkliche KI vorhanden ist. Der Roboter wird eine Art Zufallsgenerator haben und dann Motoren ansteuern. Er wird also nicht wissen, dass er einen Menschen verletzt. Verstehe nicht, warum sowas überhaupt einen Artikel wert ist. Ich kann da nicht mal ansatzweise ein Konzept hinter dem Roboter erkennen.

Der Roboter entscheidet

Anders als etwa bei „Killerdrohnen“, bei denen letztlich noch ein Mensch den Knopf für den Raketenabschuss drückt, oder als bei Tretminen, die prinzipiell beim Betreten explodieren, entscheidet der mit der Nadel bestückte Roboter laut Reben bei jeder wahrgenommenen Person, ob er sie verletzen soll. Der Techniker und Programmierer könne selbst nicht vorhersagen, wie sich das Metallgebilde letztlich verhalte. Damit sei eine neue „Klasse von Robotern“ in der Welt, die grundlos Menschen Schaden zufüge und so eine Menge nun nicht mehr vermeidbarer ethischer Fragen aufwerfe.

:wink:

dass es alles eine Trivialität ist, ist unbenommen

schon der Satz „Er wird also nicht wissen, dass er einen Menschen verletzt.“ ist viele Stufen zu hoch,
weil ein Roboter bzw. Computerprogramm nichts weiß, kein Konzept für Wissen wirklich hat,
auch nicht die hochtrabensten Schachcomputer oder komplexe Waffen und Computerspiele genau zu diesem Thema,

es fließt nur Strom in die digital geleiteten Kanäle, alles was nicht an sich (je nach Eingaben) vorbestimmt ist hängt vom Zufall ab

solange keine echte KI da ist, ist das alles keine Thema,
und wenn es eine echte KI mal geben sollte, dann wird sie sich wahrscheinlich nicht auf solche Gesetze einschränken lassen :wink:
Menschen zeigen es immer wieder

Wow - ich bin echt verwundert dass hier doch so viele eine Meinung haben die mit meiner in die gleiche Richtung geht.
Auch finde ich die Ansicht sehr interessant die Aufmerksamkeit um dieses Projekt in Frage zu stellen. Meine persönliche Meinung geht hier ganz direkt in die Richtung: Wenn ich der Maschine diese “drei Gesetze” nicht beibringe und ihr auch nicht die Möglichkeit gebe diese zu verstehen sondern diese Maschine bewusst dazu entwickle einem Menschen Schaden/Schmerzen zuzufügen darf ich nicht falsch behaupten dass diese Maschine gegen diese “Gesetze” verstoßen würde. Als möglicher Vergleich wäre hier vielleicht: Wenn ich schlicht nicht weis dass eine bestimmte Aktion gesetzlich verboten ist kann ich auch wenn ich die Aktion selbst bewusst d8rchführe nicht bewusst gegen ein mir unbekanntes Gesetz verstoßen.

Das sehe ich genauso. Da könnte man auch jammern, dass ein Programm Dinge nicht tut, die man ihm nicht einprogrammiert hat.

Kann mich da nur anschließen. Die Schlagworte aus der Überschrift - “bewusst” und “böswillig” - scheinen nach der Lektüre des Artikels totaler Blödsinn zu sein. Schaut ja nicht gerade so aus als hätte das Teil ein ausgeprägteres Bewusstsein als ein elektrischer Stuhl. Ist Heise jetzt das neue Sat1?!
Naja. Schön das wir darüber gesprochen haben. Auch wenn’s keine Ethikdebatte war.

PS: Und von wegen “…den ersten Roboter geschaffen, der ‘autonom und absichtlich’ das erste Asimovsche Robotergesetz bricht.” - kann sich noch jemand ausser mir an die Painstation erinnern?

klingt ja mehr nach Killerdrohne als dem Programm/ Roboter aus dem Link:
der ‘Pain’ ist vom Spielverlauf, von den Usern abhängig,
(so wie auch jedes andere Spiel mit ‘Loser’-Anzeige am Ende oder schlicht Grafik/ Musik psychische Schmerzen auslöst…),

nicht Schmerz vom Programm vermeintlich selbstständig unvorhersehbar verteilt wie hier,
das soll eben der entscheidende Unterschied sein…

[QUOTE=SlaterB]nicht Schmerz vom Programm vermeintlich selbstständig unvorhersehbar verteilt wie hier,
das soll eben der entscheidende Unterschied sein…[/QUOTE]
Na schön, dann ist dieser neue Roboter eben wie russisches Roulette für… keine Ahnung… niemanden. Big deal.

skynet…

zwar keine Schmerzen direkt verursacht, aber auch nicht allzu gesetzestreu:
Russischer Roboter flüchtet aus Labor | heise online

edit:

Vermutlich hat die Firma die Geschichte als PR-Gag inszeniert, um Aufmerksamkeit zu erregen.

oh, zu spät gelesen und mitgemacht

Hehe, ja, bei der “Schlagzeile” musste ich gestern Abend auch schmunzeln. Am besten dann noch die Stelle: “… bis ihm etwa 50 Meter weiter der Strom ausging.”. Ob als PR geplant oder nicht, aber die Zeile, dass der Promobot Botschaften “unters Volk” bringen soll, lässt auch etwas in Richtung Propaganda offen … obwohl da wieder der Kommentar “vielleicht wollte er zum Klassenfeind überlaufen” das West<->Ost Klischee aufleben lässt.

~ oh man, zu viel Sonne am Strand lässt das Hirn auch ziemlich erweichen

Oma wird nicht überfahren | Telepolis

Tenor hauptsächlich: nur Vollbremsung, Spurwechsel für Abwägung von Leben in Deutschland illegal,
(interessant wäre, ob das auch gilt wenn sicherer Crash in Gruppe von Menschen/ Kindergartenausflug einem Wechsel hin zu auch nur entfernt möglicher Menschengefahr, parkendes Auto mit unbekannter Besetzung etwa, entgegensteht…)

zum Thema auf Seite 3:

Aber ich will dem Hauptproblem nicht ausweichen. Die Frage wäre, ob wir nicht ethische Regeln in die Maschinen einprogrammieren sollten, z.B. Asimovs Gesetze oder meinetwegen die gesamte Ethik von Kant.

Um eine Antwort geben zu können, muss man ein Missverständnis aus dem Weg räumen. Wenn wir über „autonome Roboter“ reden, meinen wir damit nicht, dass sie wirklich alles von alleine entscheiden. Computer tun nur das, was ihnen einprogrammiert wurde. Computer und Roboter sind unsere Sklaven und sie werden es bleiben, wahrscheinlich für immer. Wenn ein Roboter eine Entscheidung trifft, wurde diese eigentlich vom Programmierer selbst von vorne herein und durch das Regelwerk festgelegt. Es ist sicherlich schwierig, alle Auswirkungen von Regeln zu durchschauen und zu „debuggen“, aber das ist des Informatikers Job.

[ edit: später: ]
Mir ist bewusst, dass es möglich wäre durch Regeln eine Art „toy ethics“ in eine Maschine einzubauen, die aber keine echte Ethik wäre, weil sie von keinem verantwortungsvollen Subjekt interpretiert werden kann. So, wie ein Buch mit der Verfassung kein moralisches Wesen ist, nur weil in seinem Inneren die Verfassung ruht, so kann keine Software ein moralisches Wesen sein, da Selbstbewusstsein und Bewusstsein für die Handlungen und deren Folgen eine Voraussetzung jeder Form von Ethik ist.

Finde dies bzgl. auch die Enterprise-TNG Folge “Wem gehört Data?” sehr interessant: Auch wenn es sich dabei so erstmal nur um Fiktion handelt, da wir aktuell weder eine so selbstbewusste KI noch die dazu nötigen rechtlichen Grundlagen (die ja in dieser Folge versucht werden zu ergründen) haben, so könnten sich diese Fragen doch sehr bald auch in der Realität stellen. Hat z.B. ein Robotor sowas wie “Rechte” oder ist er doch nur Eigentum?
Auch dazu passend: Chappie
Ich finde es spannend wie realitätsnah solche Fiktionen sind und welche davon sogar in nicht all zu ferner Zukunft Realität werden könnten.