Pomiary z różnych urządzeń o tej

Witam, Czy jest sens stosowania powiedzmy 3 różnych urządzeń do mierzenia (różnymi metodami) tej samej wielkości (np. położenia) gdy każda daje błąd rzędu 1m. tj. czy da się zmniejszyć ten błąd?

B.

Reply to
B
Loading thread data ...

Jeśli metoda pomiaru daje błąd o charakterze losowym, a nie systematycznym, to nawet jednym urządzeniem jest sens zmierzyć wiele razy. A jeśli metody pomiaru są trzy, to jeszcze lepiej.

Reply to
Slawek Kotynski

Czyli można użyć tu wzorów na średnią ważoną i jej błąd? jeżeli tak to wynikałoby z tego, że użycie 3 rożnych urządzeń pomiarowych dało by dokładność 0,(3) m

B.

Reply to
B

_Ważoną_ to wtedy, kiedy masz informację o tym, że różne pomiary dają różne błędy. Jeśli jednakowe to zwykłą arytmetyczną. No i z tą 1/3 to też nie takie proste. Przy większej ilości pomiarów to się zkałada, że rozrzut wyników ma charakter rozkładu Gaussa i można liczyć odchylenie standardowe. Jak traktować dokładność przy 3 pomiarach, to nie wiem.

Reply to
Slawek Kotynski

Użytkownik "Slawek Kotynski" snipped-for-privacy@askar.com.pl> napisał w wiadomości news: snipped-for-privacy@tower.askar.com.pl...

Na studiach do kilku-kilkunastu pomiarów preferowano rozkład t-Studenta - jeśli dobrze nazwę pamiętam.

Reply to
Robert Tomasik

Stosowanie tego rozkladu [podobnie zreszta jak innych] ma sens jesli wiemy ze wyniki pomiarow naprawde sa obarczone odpowiednim statystycznym rozrzutem.

Trzy rozne przyrzady o nieznanych charakterystykach to nie jest taki przypadek.

J.

Reply to
J.F.

Jest na to któraś tam norma ASTM. Poszukaj, jak nie dasz rady to ja ją gdzieś mam. Konrad

Reply to
Konrad Anikiel

Slawek Kotynski pisze:

OIDP n>=30

Reply to
PeJot

W ogólności nie ma żadnego ustalonego n (może jest jakaś norma?), bo to n zależy od przyjętego poziomu ufności. Chodzi o to, że jeśli naszą procedurę n pomiarów wykonamy k razy to przy przyjętym sposobie liczenia błędu z n pomiarów, w jakimś procencie z tych k razy możemy się walnąć - ten procent jest równy (1 - poziom ufności).

Reply to
Slawek Kotynski

PeJot napisal:

Ehm, nie do konca. Starsi w wierze wyznaja, ze: a) ponizej 7 jest NA PEWNO probka bardzo mala, b) ponizej 30 jest NA PEWNO probka mala, c) powyzej 100 jest probka duza.

A obszar pomiedzy 30 i 100 zalezy od orientacji wypowiadajaceg sie :)

Co do wyprowadzen teoretycznych, to od pewnego czasu zaczynam podchodzic do nich z duza rezerwa, od czasu gdy symulatorem negatywnie zweryfikowalem spora czesc wzorow w 'kultowych' tablicach statystycznych Zielinskiego.

Reply to
Jacek_P

Jacek_P pisze:

Dzisiaj duża próbka to jest milion danych :)

Reply to
PeJot

PeJot napisal:

Z punktu widzenia rozkladow asymptotycznych to fakt, czy mamy 1000 czy milion nie ma juz duzego znaczenia. Z punktu widzenia procedur numerycznych wyznaczajacych srednia, wariancje itd. milion to juz zupelnie inna bajka, wymagajaca wstepnej agregacji danych, bo inaczej to srednia bedziesz mial z pierwszych kilkudziesieciu tysiecy danych, reszta pojdzie w gwizdek ;)

Reply to
Jacek_P

To nie takie oczywiste :P Bo jak się przypadkiem walniesz w iluś pierwszy pomiarach, to potem będzie poprawianie, poprawianie, poprawianie... :)

Reply to
Slawek Kotynski

Znowu nie przesadzaj - Intel od ponad 20 lat umozliwia obliczanie z mantysa 64 bit, nawet jak sie 20 zmarnuje przy milionowej probce, to nadal 10 cyfr znaczacych zostaje. A jak komu malo, to jeszcze moze policzyc na 18-cyfrowych liczbach.

A swoja droga .. przykre, ale nie potrafie sie doczytac - sa juz jakies procesory z dokladniejszym zmiennym przecinkiem ? Norma przewiduje 128 bitowe ..

J.

Reply to
J.F.

PolyTech Forum website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.