Witam, Czy jest sens stosowania powiedzmy 3 różnych urządzeń do mierzenia (różnymi metodami) tej samej wielkości (np. położenia) gdy każda daje błąd rzędu 1m. tj. czy da się zmniejszyć ten błąd?
B.
Witam, Czy jest sens stosowania powiedzmy 3 różnych urządzeń do mierzenia (różnymi metodami) tej samej wielkości (np. położenia) gdy każda daje błąd rzędu 1m. tj. czy da się zmniejszyć ten błąd?
B.
Jeśli metoda pomiaru daje błąd o charakterze losowym, a nie systematycznym, to nawet jednym urządzeniem jest sens zmierzyć wiele razy. A jeśli metody pomiaru są trzy, to jeszcze lepiej.
Czyli można użyć tu wzorów na średnią ważoną i jej błąd? jeżeli tak to wynikałoby z tego, że użycie 3 rożnych urządzeń pomiarowych dało by dokładność 0,(3) m
B.
_Ważoną_ to wtedy, kiedy masz informację o tym, że różne pomiary dają różne błędy. Jeśli jednakowe to zwykłą arytmetyczną. No i z tą 1/3 to też nie takie proste. Przy większej ilości pomiarów to się zkałada, że rozrzut wyników ma charakter rozkładu Gaussa i można liczyć odchylenie standardowe. Jak traktować dokładność przy 3 pomiarach, to nie wiem.
Użytkownik "Slawek Kotynski" snipped-for-privacy@askar.com.pl> napisał w wiadomości news: snipped-for-privacy@tower.askar.com.pl...
Na studiach do kilku-kilkunastu pomiarów preferowano rozkład t-Studenta - jeśli dobrze nazwę pamiętam.
Stosowanie tego rozkladu [podobnie zreszta jak innych] ma sens jesli wiemy ze wyniki pomiarow naprawde sa obarczone odpowiednim statystycznym rozrzutem.
Trzy rozne przyrzady o nieznanych charakterystykach to nie jest taki przypadek.
J.
Jest na to któraś tam norma ASTM. Poszukaj, jak nie dasz rady to ja ją gdzieś mam. Konrad
Slawek Kotynski pisze:
OIDP n>=30
W ogólności nie ma żadnego ustalonego n (może jest jakaś norma?), bo to n zależy od przyjętego poziomu ufności. Chodzi o to, że jeśli naszą procedurę n pomiarów wykonamy k razy to przy przyjętym sposobie liczenia błędu z n pomiarów, w jakimś procencie z tych k razy możemy się walnąć - ten procent jest równy (1 - poziom ufności).
PeJot napisal:
Ehm, nie do konca. Starsi w wierze wyznaja, ze: a) ponizej 7 jest NA PEWNO probka bardzo mala, b) ponizej 30 jest NA PEWNO probka mala, c) powyzej 100 jest probka duza.
A obszar pomiedzy 30 i 100 zalezy od orientacji wypowiadajaceg sie :)
Co do wyprowadzen teoretycznych, to od pewnego czasu zaczynam podchodzic do nich z duza rezerwa, od czasu gdy symulatorem negatywnie zweryfikowalem spora czesc wzorow w 'kultowych' tablicach statystycznych Zielinskiego.
Jacek_P pisze:
Dzisiaj duża próbka to jest milion danych :)
PeJot napisal:
Z punktu widzenia rozkladow asymptotycznych to fakt, czy mamy 1000 czy milion nie ma juz duzego znaczenia. Z punktu widzenia procedur numerycznych wyznaczajacych srednia, wariancje itd. milion to juz zupelnie inna bajka, wymagajaca wstepnej agregacji danych, bo inaczej to srednia bedziesz mial z pierwszych kilkudziesieciu tysiecy danych, reszta pojdzie w gwizdek ;)
To nie takie oczywiste :P Bo jak się przypadkiem walniesz w iluś pierwszy pomiarach, to potem będzie poprawianie, poprawianie, poprawianie... :)
Znowu nie przesadzaj - Intel od ponad 20 lat umozliwia obliczanie z mantysa 64 bit, nawet jak sie 20 zmarnuje przy milionowej probce, to nadal 10 cyfr znaczacych zostaje. A jak komu malo, to jeszcze moze policzyc na 18-cyfrowych liczbach.
A swoja droga .. przykre, ale nie potrafie sie doczytac - sa juz jakies procesory z dokladniejszym zmiennym przecinkiem ? Norma przewiduje 128 bitowe ..
J.
PolyTech Forum website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.