Philosophie der Informatik?

[QUOTE=WerteUndNorman]Ich erklärs nochmal ganz simpel:

es doch mal, was ihr unter einem Philosophen versteht. Offenbar ists ja nicht das, was Menschen, die sich damit auskennen, darunter verstehen.[/QUOTE]

Dann rede doch mit denen -.-

Zu behaupten die eigene Ansicht wäre die allgemein Anerkannte ist billig. Wenn du keine Diskussion willst sondern nur Zustimmung hast du wohl Pech gehabt. Wie Landei sagt, die Probleme sind ganz paktischer Natur bevor irgendwie im Ansatz “philosophische” Entscheidungen getroffen werden müssen. Nur eins deiner Beispiele ist ethisch fragwürdig, nämlich die Sterbehilfe. Aber diese Frage hat nichts mit der Informatik zu tun. Der Rest sind konkrete Fragestellungen die auf die unterschiedlichsten Arten implementiert werden können. Das ist aber wieder Praxis.

wenn du überzeugen willst solltest du irgendwann anfangen, konkrete Vorteile/ Können/ Arbeitsweisen eines Philosophen zu nennen
oder konkrete Ergebnisse, so bleibt das alles unnachvollziebar,
Philosopieren als Denken an sich kann jeder normale Mensch genauso,

jeder ernsthafte Ansatz in so einem Feld ist natürlich nicht nur blinder Code sondern auch umfangreicher Hintergrund,
zu ‚was bedeuten Worte‘ an meiner Uni: http://nats-www.informatik.uni-hamburg.de/

reale Arbeit, mit ‚ich bin jetzt Philosoph‘ geht da keiner aktiv rein, wenn auch letztlich vielleicht intern ähnliches

Und wenn ihr das jetzt immer noch nicht kapieren könnt, liegt das offenbar daran, dass wir nicht die gleichen Dinge meinen, wenn wir von „Philosophie“ reden.
Was ich unter einem Philosophen verstehe, hab ich jetzt mehrfach klar und deutlich gesagt.

Wenn ihr damit nicht Einverstanden seid ist das toll, aber dann

sagt!

es doch mal, was ihr unter einem Philosophen versteht. Offenbar ists ja nicht das, was Menschen, die sich damit auskennen, darunter verstehen.

seitenweise Texte nachlesen ist eben schwer, und ich habe schon manches davon gelesen und kann jetzt nichts konkretes erinnern,
in der Kürze liegt die Würze

ein einfach verständlicher Standpunkt ist jedenfalls: warum sollte ein Fachfremder (Philosoph, was immer das für eine Ausbildung ist) mehr beitragen können als ein Informatiker der das ganze Wissen mitbringt, etwa zum Aufbau der künstlichen Intelligenz?,
(mal unabhängig von sonstigen Wissensstand, Professor/ Buch-Autor vs. Programmier-Novize)

das sieht ja nicht gut aus, anderseits könnten dann Philosophen nie irgendwo mitmachen, überall fehlt das Fachwissen,
vielleicht muss Kombination her, ein Informatiker der auch ein bisschen Philosphie kann (was immer das dann genau bedeutet…),

bei unserer Uni hatten viele Nebenfach Philosphie, paar kleine Vorlesungen, aber wohl aus anderen Gründen :wink:

Wenn ihr das nicht versteht […] . Ich komme mir vor, als würde ich mit religiösen Fanatikern reden.
[ usw]

nochmal der Tipp nicht ins Ihr/ Euch/ Gruppen-Verdammung zu verfallen, sieht ganz traurig aus

Mittlerweile hat die Informatik ja sehr konkrete Anwendungsbereiche, die ethisch reflektiert werden müssen. Eine “Philosophie der …” ist ja oft eine Ethik. Nimm zum Beispiel die Frage von der Programmierung von Waffen. Welche Verantwortung hat ein Informatiker, wenn er Steuerungssysteme für militärische Drohnen entwickelt? Schon jetzt aktuell ist das Thema der selbstfahrenden Autos. Wie soll es in Gefahrensituationen reagieren? Von links läuft ein Kind auf die Straße, von rechts ne Omma. Mit welchem Grund soll der Insasse des Fahrzeugs gegenüber den Externen bevorzugt werden? Es gibt schon philosophische Aspekte, die für die Informatik relevant sein können.

hier hat einer Leichen ausgebuddelt

enfach bremsen ? oder reagierst du als Mensch nach dem Auswahlprinzip und lenkst in die eine oder andere Richtung ?

ein kleiner Unterschied ist, dass ein Computer schnell denken und viele Dinge gleichzeitig machen kann,
wie bremsen UND noch in tausend Schritten nachdenken UND evtl. lenken,

bewußt jedes Lenken zu unterlassen ist zwar frei von Verdacht auf Bevorteilung einer Partei,
aber jedenfalls auch eine der möglichen aktiven Entscheidungen

Oma ist eine TerrorOma und hat eine Atombombe in der Stadt versteckt. Wenn das selbstfahrende Auto Oma überfährt, wird man nie erfahren, wo die Bombe ist und Millionen Fernsehzuschauer müssen sterben.

Ist schon ein brutal hartes intellektuelles Gebiet, die Ethik der Informatik.

Der Versuchsaufbau ist ganz anders, rechts ist ein unüberwindbares Hindernis, links ist eine Oma, im Fahrzeug befinden sich zwei Insassen, hinter dem Fahrzeug hält ein anderes den Sicherheitsabstand nicht ein.

nach links lenken -> Oma beschädigt
geradeausfahren -> Insassen beschädigt
Bremsen -> Auffahrunfall -> wahrscheinlich 3 Leute beschädigt

Jetzt findet eine Abwägung statt (wenn das auch nicht festverdrahtet ist). Warum sollte die Oma im Gegensatz zu Fahrzeug(en) und Insassen beschädigt werden?

Diese Frage/Abwägung ist unmoralisch. Deswegen stellt die Philosophie diese Frage nicht, wenngleich der Versuchsaufbau möglich ist.

Wie würde sich ein Mensch entscheiden?, hat er Zeit zum nachdenken?, ist er bremsbereit?, geht er auf einen Trade-off ein?

Auch diese Frage(n) dürfen in der Philosophie nicht gestellt werden.

Was ist aber, wenn doch etwas passiert?

Ein Philosoph wird sich nicht damit beschäftigen, wie Dinge umgesetzt werden, denn genau das ist ja die Aufgabe der Naturwissenschaften:
**Wie **funktionieren die Dinge, **wie **kann ich dies und das tun.

Vielmehr geht es eben um Fragen, mit denen sich die Informatik nicht beschäftig:

Was sind Kriterien um eine Situation zu entscheiden?
Was ist das korrekte Verhalten?
Was darf ein System entscheiden?

Für einen Informatiker sind Daten eben nur Daten, der Inhalt ist theoretisch völlig bedeutungslos.
Er arbeitet mit Kategorien, aber was für eine Bedeutung die Kategorien haben spielt nur dann eine Rolle, falls die Bedeutung Auswirkungen auf die Struktur hat.

Ode anders gesagt… ob TSP nun auf den Originalfall eines Verkäufers oder die kürzeste Strecke einer Bahn aus Nazideutschland angewendet wird,
die Menschen zur Verbrennung kutschieren soll, ändert nichts an der Kategorisierung in NP.
Die Informatik als Stellvertreter der Mathematik sagt: Beide Aufgaben sind demselben Subtyp der NP-vollständigen Probleme zuzuordnen, ihre Komplexität steigt drastisch mit der Anzahl der Orte.
Die Ethik als Stellvertreter der Philosophie sagt dagegen: Menschen zu verbrennen ist böse, tu das nicht.

Das hier wäre ein Beispiel das aufseiten der Philosophie sehr einfach ist und daher theoretisch von jedem gleich entschieden würde(dennoch haben sie es getan), aufseiten der Informatik dagegen eher schwierig.
Das Beispiel mit dem Auto ist dagegen auf beiden Seiten schwierig. Denn falls wir einmal wirklich automatisch steuernde Autos
haben wollen, müssen wir eine systematische Entscheidung für das obenstehende Problem finden, falls ein automatisch gesteuertes Auto in diese Situation geraten kann.

Falls sich mal jemand mit Softwaretest oder Softwarequalitätssicherung beschäftigt hat:
Inwiefern kann man beweisen, dass eine bestimmte Situation nicht auftritt, wenn nicht kontrollierte Akteure(zB. Tiere, Menschen, Wetter) eine Rolle spielen?

Fazit: Philosophie der Informatik würde ich als eine Unterart der Philosophie betrachten, die sich mit all jenen Fragen beschäftigt,
die jetzt neu entstehen wo wir überall eine wachsende Zahl an elektronischen Systemen mit Sicherheitsaspekten haben.

Ein paar Fragen, die ich mit der Philosophie der Informatik asoziieren würde:

Darf ein elektronisches System automatisch Atombomben abschießen?
Wer trifft in welcher Situation endgültige Entscheidungen, Mensch oder Maschine?
Darf ein elektronisches System Menschenleben gegeneinander abwägen?
Falls ja nach welchen Kriterien?
Gelten Menschenrechte auch für elektronische Intelligenzen, falls diese nachweislich das Level eines Menschen erreichen?
Nach welchen Kriterien würde der Nachweis zu führen sein?
Kann ein Computer die Aufgabe eines Richters erfüllen?
Ist ein Roboter berechtigt vor Gericht auszusagen?

Welche Folgen hätte die jeweilige Entscheidung einer dieser Fragen auf unsere Realität?

Das Problem:


public class TheProblemWithPhilosophy
{
    public static void main(String[] args)
    {
        Topic soccer = new Topic("soccer");
        
        Person a = new Person();
        a.talkAbout(soccer);
        
        Philosopher b = new Philosopher();
        b.talkAbout(soccer);
    }
}

class Topic
{
    String name;
    Topic(String name)
    {
        this.name = name;
    }
}
class Person
{
    void talkAbout(Topic topic)
    {
        System.out.println("Talking about "+topic);
    }
}
class Philosophy extends Topic
{
    Topic topic;
    Philosophy(Topic topic)
    {
        super("Philosophy of "+topic);
    }
}
class Philosopher extends Person
{
    @Override
    void talkAbout(Topic topic)
    {
        talkAbout(new Philosophy(topic));
    }
}

Exception in thread "main" java.lang.StackOverflowError
	at java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:422)
	at java.lang.StringBuilder.append(StringBuilder.java:136)
	at java.lang.Object.toString(Object.java:236)
	at java.lang.String.valueOf(String.java:2982)
	at java.lang.StringBuilder.append(StringBuilder.java:131)
	at Philosophy.<init>(TheProblemWithPhilosophy.java:36)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
	at Philosopher.talkAbout(TheProblemWithPhilosophy.java:44)
....

Um genau diese Fragen geht es auch in der Informatik. Ich will das jetzt nicht gestelzt-pragmatisch beantworten mit

  1. Das, was in der if-Abfrage steht
  2. Das, was in der Anforderungsanalyse festgehalten wurde
  3. Das, was im Haftungsausschluss steht
    aber es scheint mir (und anderen, wie das schon angedeutet wurde) fast, als sollte bestimmten Fragen die Philosophie quasi „übergestülpt“ werden (zweifellos schwierige Fragen, ABER (ohne, dass da jetzt eine Unterstellung oder Wertung von „Philosophie“ mitschwingen soll) oft auch gerade die Fragen, wo von vornherein klar ist, dass es keine „absolute“, „abschließende“ Antwort gibt.

Menschen zu verbrennen ist böse

Lebende. Und auch da sollte man mit absoluten Aussagen vorsichtig sein. (Wäre es böse gewesen, Hitler zu verbrennen? (Da muss man nicht drauf eingehen))

Darf ein elektronisches System automatisch Atombomben abschießen?
Wer trifft in welcher Situation endgültige Entscheidungen, Mensch oder Maschine?
Darf ein elektronisches System Menschenleben gegeneinander abwägen?
Falls ja nach welchen Kriterien?
Gelten Menschenrechte auch für elektronische Intelligenzen, falls diese nachweislich das Level eines Menschen erreichen?
Nach welchen Kriterien würde der Nachweis zu führen sein?
Kann ein Computer die Aufgabe eines Richters erfüllen?
Ist ein Roboter berechtigt vor Gericht auszusagen?

Welche Folgen hätte die jeweilige Entscheidung einer dieser Fragen auf unsere Realität?

Abgesehen von der impliziten Frage nach dem Turing-Test sehe ich das eher als rechtliche Fragen. Wer wird verklagt, wenn irgendwas so läuft, wie es jemand anderem nicht passt?

[quote=Unregistered]Die Ethik als Stellvertreter der Philosophie sagt dagegen: Menschen zu verbrennen ist böse, tu das nicht.

Das hier wäre ein Beispiel das aufseiten der Philosophie sehr einfach ist und daher theoretisch von jedem gleich entschieden würde[/quote]

Also erstens sagt „die Ethik“ das überhaupt nicht: die sind noch nicht mal soweit klar zu entscheiden, was das Adjektiv „böse“ genau bedeutet. Und zweitens hatte auch die Philosophie von Thales (800 v.Chr.) bis zur Aufklärung (1700 n. Chr) bemerkenswert wenige Probleme mit dem Konzept der Sklaverei, den grausamen Strafen und Eroberungskriegen gezeigt. Also runter vom hohen Ross.

Also eine neue Spielart der akademischen Philosophie, mit Lehrstühlen, Professoren, Jargon und „technischen papers“ in „Fachzeitschriften“. Einfach
eine neue Disziplin, die sich einen Gegenstand zusammengeschustert hat und die kein Mensch braucht.

Ein klares Ja oder Nein. Schreib mal ein technisches Paper.

Zu deinen Fragen kann ich nur sagen, dass viel wichtigere Fragen philosophisch seit Jahren ohne Antwort dahindösen:

[quote=Unregistered;133480]Darf ein Mensch Atombomben abschießen?
Wer trifft in welcher Situation endgültige Entscheidungen?
Darf Mensch Menschenleben gegeneinander abwägen?
Gelten Menschenrechte auch für elektronische Intelligenzen, künstliches Leben, Außerirdische, Alf und Einhörner falls diese nachweislich das Level eines Menschen erreichen?
Kann ein Mensch die Aufgabe eines Richters erfüllen?
Warum darf ein Mensch vor Gericht auszusagen, obwohl man weiß, dass z.B. bei Gegenüberstellungen 50% Fehlerquote bei gleichzeitiger völliger Gewissheit des Zeugen eintritt?[/quote]

Nachtrag: gleichermaßen wichtig ist die Schaffung eines neuen Forschungsgebietes: „Theologie der Informatik“ - damit endlich erforscht wird, ob künstliche Intelligenzien in den Himmel kommen.

Zusammenfassend:
Niemand von euch hat sich die Mühe gemacht sich anzusehen was tatsächlich unter den Begriff Philosophie der Informatik fällt und wo der Forschungsschwerpunkt der verschiedenen Unis liegt. Jeder glaubt aber es besser als der andere zu wissen.

… schaut euch doch bitte die Beiträge zumindestens an.

Da zwei Themen in mein Interessensfeld hineinfällt hier kurz zwei Verweise:

Da gibt’s zum einen interessante Grundsatzdiskussionen die aus der Komplexitätstheorie entstanden sind (Minds, Machines and Gödel, Gödel’s Theorem: An Incomplete Guide to Its Use and Abuse).

Zum anderen aber auch spannende Beiträge zum Thema künstliches Bewusstsein (z.B. von Hrn. Prof. Metzinger) der Philosophie des Bewusstseins und Informatik zusammen bringt.

Verreißts und argumentierts doch wenigstens auf Basis von tatsächlichen Positionen …

Zufällig besitze ich das Buch - und ich hab auch das eher neuere von Dirk Hoffmann durchgearbeitet - ebenso wie vor fast 30 Jahren den GEB. Das Buch von Torkel Franzen handelt übrigens im Kapitel 6 genau davon (i.e. ist eine Kritik!), dass Gödels Theorem von einem Haufen Spinner verwurstet wird. In Domänen, in denen es einfach nichts zu suchen hat. Bisher hat auch noch niemand ernsthafte Belege dafür geliefert, das Gödel irgendetwas mit Hirnforschung, Bewusstsein etc. zu tun hätte. Es ist einfach nur eine vage Analogie ohne größere Substanz, die von Philosophen deshalb so gern zitiert wird, weil sie davon ausgehen, dass das Publikum keine Ahnung von den ziemlich harten technischen Aspekten von Gödels Arbeit hat - und deshalb schwer beeindruckt sein wird.

Und selbst wenn: das gehört zur Mathematik/Logik, nicht wirklich zur Informatik.

Und was Koch, Metzinger, Crick und andere betrifft: hier ist Informatik eher eine Hilfswissenschaft der Philosophie - und das schon seit Turing. Die Analogie Bewusstsein=Berechnung könnte einfach hilfreich dabei sein, das Bewusstsein zu verstehen. Oder auch nicht.

Aber das hat doch überhaupt nichts mit „Philosophie DER Informatik“ zu tun. Ganz andere Baustelle. Was sollte denn die Substanz einer Philosophie DER Informatik sein??