Ein Philosoph wird sich nicht damit beschäftigen, wie Dinge umgesetzt werden, denn genau das ist ja die Aufgabe der Naturwissenschaften:
**Wie **funktionieren die Dinge, **wie **kann ich dies und das tun.
Vielmehr geht es eben um Fragen, mit denen sich die Informatik nicht beschäftig:
Was sind Kriterien um eine Situation zu entscheiden?
Was ist das korrekte Verhalten?
Was darf ein System entscheiden?
Für einen Informatiker sind Daten eben nur Daten, der Inhalt ist theoretisch völlig bedeutungslos.
Er arbeitet mit Kategorien, aber was für eine Bedeutung die Kategorien haben spielt nur dann eine Rolle, falls die Bedeutung Auswirkungen auf die Struktur hat.
Ode anders gesagt… ob TSP nun auf den Originalfall eines Verkäufers oder die kürzeste Strecke einer Bahn aus Nazideutschland angewendet wird,
die Menschen zur Verbrennung kutschieren soll, ändert nichts an der Kategorisierung in NP.
Die Informatik als Stellvertreter der Mathematik sagt: Beide Aufgaben sind demselben Subtyp der NP-vollständigen Probleme zuzuordnen, ihre Komplexität steigt drastisch mit der Anzahl der Orte.
Die Ethik als Stellvertreter der Philosophie sagt dagegen: Menschen zu verbrennen ist böse, tu das nicht.
Das hier wäre ein Beispiel das aufseiten der Philosophie sehr einfach ist und daher theoretisch von jedem gleich entschieden würde(dennoch haben sie es getan), aufseiten der Informatik dagegen eher schwierig.
Das Beispiel mit dem Auto ist dagegen auf beiden Seiten schwierig. Denn falls wir einmal wirklich automatisch steuernde Autos
haben wollen, müssen wir eine systematische Entscheidung für das obenstehende Problem finden, falls ein automatisch gesteuertes Auto in diese Situation geraten kann.
Falls sich mal jemand mit Softwaretest oder Softwarequalitätssicherung beschäftigt hat:
Inwiefern kann man beweisen, dass eine bestimmte Situation nicht auftritt, wenn nicht kontrollierte Akteure(zB. Tiere, Menschen, Wetter) eine Rolle spielen?
Fazit: Philosophie der Informatik würde ich als eine Unterart der Philosophie betrachten, die sich mit all jenen Fragen beschäftigt,
die jetzt neu entstehen wo wir überall eine wachsende Zahl an elektronischen Systemen mit Sicherheitsaspekten haben.
Ein paar Fragen, die ich mit der Philosophie der Informatik asoziieren würde:
Darf ein elektronisches System automatisch Atombomben abschießen?
Wer trifft in welcher Situation endgültige Entscheidungen, Mensch oder Maschine?
Darf ein elektronisches System Menschenleben gegeneinander abwägen?
Falls ja nach welchen Kriterien?
Gelten Menschenrechte auch für elektronische Intelligenzen, falls diese nachweislich das Level eines Menschen erreichen?
Nach welchen Kriterien würde der Nachweis zu führen sein?
Kann ein Computer die Aufgabe eines Richters erfüllen?
Ist ein Roboter berechtigt vor Gericht auszusagen?
Welche Folgen hätte die jeweilige Entscheidung einer dieser Fragen auf unsere Realität?