Vielen Dank für euer Feedback!
[QUOTE=Sen-Mithrarin]Sorry, ich hab jetzt nicht alle Antworten gelesen - und um erlich zu sein auch nicht die Antwort auf die PN
aber kanns mir bitte noch mal wer erklären worum genau es jetzt eigentlich ging?[/QUOTE]
Sorry, hab mir den Rest von deinem Text nicht durchgelesen - kannst du es bitte noch einmal erklären? :rolleyes:
[QUOTE=cmrudolph;136572]Um den Faktor Schwierigkeitsgrad der Aufgabe bei der Antwortzeiten zu entfernen, gab es unterschiedliche Kommentare für die Probanden.
Ich denke, das war die Intention, @darekkay ?[/QUOTE]
Nicht ganz - ich kann die Aufgaben miteinander gar nicht vergleichen (ist Aufgabe 1 doppelt so schwer, wie Aufgabe 2?). Ich untersuche die Unterschiede pro Aufgabe, also heißt es am Ende sowas wie: „bei Aufgabe 1 gibt es einen signifikanten Unterschied in der Bearbeitungszeit zwischen keinen Kommentaren und Inline-Kommentaren“ etc. Daher auch die Einteilung in Use-Cases (vielleicht sind die Unterschiede nur beim Erweitern des Codes signifikant?).
[QUOTE=Timothy_Truckle;136573]Was mir nicht gefallen hat ist, dass der Code selbst bewusst kryptisch gehalten wurde. Dadurch war die Bedeutung der Kommentare für das Verständnis unrealistisch hoch.
Viel Interessanter wäre IMHO gewesen, „clean Code“ zu nehmen und dann zu ermitteln, welcher Typ Kommentar zur Verbesserung des Verständnisses führt.[/QUOTE]
Das ist richtig, aber drei Punkte sprechen für mich dagegen:
(1.) Ich untersuche nur den Einfluss der Kommentare - der Einfluss der Bezeichnernamen ist ein Störfaktor, den ich bewusst rausgenommen habe. Das hat eindeutig eine Auswirkung auf die Interpretation der Ergebnisse, und das bleibt nicht unerwähnt („Bedeutung der Kommentare unrealistisch hoch“).
(2.) Wir alle wissen was Clean Code ist, und wir alle haben mit Code gearbeitet, der diese Normen nicht einhält. Also völlig unrealistisch ist es dann vielleicht ja doch nicht
(3.) Ich musste bei 9 Aufgaben diese relativ einfach halten, damit die Teilnehmer nicht einen halben Tag für das Experiment opfern müssen. Würde ich Clean Code verwenden, wären die Kommentare bei diesen einfachen Beispielen größtenteils überflüssig, und deren Einfluss wegen (2.) eventuell auch „unrealistisch niedrig“.
TL;DR: Es ist „nur“ eine Masterarbeit. Ich kann ohnehin nicht mehr, als Anzeichen für eine starke Korrelation finden, die in zukünftigen Arbeiten näher untersucht werden müsste. Schlüsse, wie „also deswegen sollte man immer Kommentare verwenden“, wären naiv. Die bisherigen Arbeiten zeigen, wie schwer dieses Problem realistisch und gleichzeitig wissenschaftlich zu erfassen ist (auch wenn es für einige mit ein paar Conventions à la „Tabs vs. Spaces“ erledigt zu sein scheint).
Es gibt aber auch noch weitere Erkenntnisse, die nicht zum Hauptthema der Studie gehören. Etwa: werden Kommentare bei der Aufgabenbearbeitung ebenfalls angepasst oder hinzugefügt? Anzunehmen wäre etwa, dass bereits kommentierter Code eher zu Anpassungen der Kommentare führt.