Fehlerberechnung < Mechanik < Physik < Naturwiss. < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 17:13 Sa 17.10.2009 | Autor: | tipi91 |
Aufgabe | Gegebene standardabweichung von 2 uhren, die das selbe ereignis 10mal gemessen haben: s1=0,1798 und s2=0,08996( Durschnitt von x1=101,003s, von x2= 100,996s)
a) Wie große sind die fehler der Mittelwerte bei uhr 1 mit 80 messungen und uhr 2 mit 20messungen, wenn von den selben standardabweichungen ausgegangen wird?
b)Sie betrachten beide Messungen in a) als ein experiment.
Wie groß ist der fehler des mittelwertes? |
Tja eigentlich genau die aufgaben oben.
Ich bin halt net 100% sicher beim berechnen der beiden teilaufgaben.
Wie bzw. was muss ich das rechnen oder wie soll ich vorgehen?
Kann ich denn überhaupt von den selben Durschnitten ausgehen, wenn sich die anzahl verändert hat?
Danke für antworten
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Huhu,
also du hast doch für jede Uhr eine Abweichung gegeben, also s1 oder s2, also um wie viel die Uhren falsch gehen im Prinzip.
Wenn die Uhr aber bei jeder Messung diesen Fehler macht ("man gehe von denselben Abweichungen aus"), dann fließt der auch bei jeder Messung ein.
Bei a) sollst du nun also ausrechnen, wie groß (in %) dein Gesamtfehler für eine der Uhren jeweils ist – bei 80 bzw. 20 Messungen.
Du hast dann also (mal gesponnen) einen Gesamtfehler von 50 – das wären vom Durchschnitt 100 50%, du hättest also einen Fehler von etwa 50% gemacht. (Was natürlich doof hoch wäre :) )
Bei b) sollst du dir denken, dass a) und b) zusammen EIN Experiment sind, wie groß wäre dann die Gesamtabweichung.
Viel Erfolg :)
|
|
|
|