アカウント名:
パスワード:
平均をとることは「正しい数学」ではあるが「正しい科学」ではないとして異を唱える者も当然いるとのことだが、/.Jer ならどう考える ?
単純に平均を取ってしまうと正しい科学ではないかもしれませんが、加重平均を取れば一応科学的にも正しい結果にはなると思われます。 加重平均とはN個の独立した測定値が以下のようにあった場合、 x1±σ1, x2±σ2,・・・ xN±σN 重みwiを以下のように定義します。 Wi=1/σi 2 この場合これらの測定値を総合した最良推定値xwavは xwav=∑wixi/∑wi となりこれが加重平均です。
この場合の議論は、「じゃあ加重平均とればいいじゃん」という話でもなくて、 phasonさんのコメント [srad.jp]で紹介されている文献を読むと、 二つの測定方法(ジェセフソン効果を利用して測定する方法、シリコン結晶から測定する方法)で未知の系統的な誤差(systematic error)がありそうで(~10-6)、 それが、キログラム原器を使った場合の相対誤差(キログラム原器の質量変動)~10-8に対して小さくないので、まだ使えないな、という話ですね。
個人的には量子電気力学に穴があるかもという話が面白そうですが、 きっと違うんだろうなあ。
元々のプランク定数もアボガドロ定数も加重平均で算出したものが使われてます。原理的に同種の実験結果なので、各々が計測外の誤差を含むと考えて加重平均で単一値を決めるのは、理論的にも妥当なのです。
そうやって決めた単一値同士から算出した質量が一致しないので、どうしようかと悩んでいるのが現状ですね。
プランク定数とアボガドロ定数の双方が、十分に確定的な数値が出ているので、一方を確定値として採用すると、他方の測定方法が致命的に間違って居るということになってしまいます。
で、プランク定数もアボガドロ定数も質量の次元を1次の係数で持っているので、算出した質量の平均を取る場合には、単純な2数値の平均になります。定数の算出時点で加重平均を使用しているので、重みを付けるとすると、両者の誤差に対して重みをつけることになりますが、現状で同等なので、極端な重みの違いは付かないです。もし、プランク定数とアボガドロ定数の一方の計測方法に致命的な問題が在るなら、平均値の採用自体が、間違った数値を基準とする訳で、妥当な手段とは言い難いでしょうね。
一方で、未知の系統的誤差が在る場合、現状のプランク定数やアボガドロ定数の次元が質量を1次の係数として持つ事自体に疑問が生じる訳で、定数の次元から見直す必要が出てきます。次元見直しで、両者が質量の非一次項を持つとすれば、二定数から計算した質量の単純平均を質量の定義とするのも、あながち間違いじゃないような気がします。
実際には、定数の次元を変更するのではなく、実験結果から定数を算出する計算式に修正が入り、定数値の変更が行われるでしょうから、将来的に両定数の正確な値が平均質量と一致する形で変更されて歩み寄ると仮定すれば、意外に妥当な方法でも在ります。しかも、歩み寄る可能性が結構高そうです。と云うのは、両者の計測装置が、割りと似た構造なので、同程度の誤差を逆方法に出している可能性がそれなりに高そうに見えるからです。
両定数の計測が同等の誤差を含んでいる事が前提の乱暴な論法なのは確かですが。
そりゃあ自分の測定した値が認められて「これが定義です」となればうれしいに決まっています。
先も挙げた藤井先生が書いた記事 [jikkyo.co.jp]も、非常に公平に書かれているのですが、図6をよく見ると産総研NIMJが測定したデータと、国際的に認められたデータ(CODATA値)では矛盾しています。ここでもやはり複数の実験の結果を加重平均を求めることによって、CODATA値を求めています。そこにNIMJが測定したデータも含まれているので、「我々の測定データは国際的に認められた」という主張なのですが、結果的には誤差の小さいアメリカNISTのデータに近い値になっています。上の加重平均を求める式を見てもらえばわかりますが、データの重みは誤差の2乗に反比例するので、誤差が大きいデータの重要度は低いのです。
具体的な値が書いてないのですが、エラーバーの大きさから推測するに、3倍の誤差がありそうなので、重みはNISTのデータに比べて1/9程度しかないでしょう。
これは測定した本人からすれば悔しくて夜も眠れないに決まっています。 「ぐぬぬ、、、俺たちが正しい測定をしたのに!!あいつらのQED理論が間違っている!!」 という叫びが行間から聞こえてきそうです。もちろんNISTからすれば、 「おめーがQED理解してないだけだろーが!!バーカバーカ!!悔しかったらもっと誤差小さい測定してみろや!!」ということになるでしょう。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
「科学者は100%安全だと保証できないものは動かしてはならない」、科学者「えっ」、プログラマ「えっ」
加重平均とればいい、というわけでもない (スコア:2)
平均をとることは「正しい数学」ではあるが「正しい科学」ではないとして異を唱える者も当然いるとのことだが、/.Jer ならどう考える ?
単純に平均を取ってしまうと正しい科学ではないかもしれませんが、加重平均を取れば一応科学的にも正しい結果にはなると思われます。 加重平均とはN個の独立した測定値が以下のようにあった場合、
x1±σ1, x2±σ2,・・・ xN±σN
重みwiを以下のように定義します。
Wi=1/σi 2
この場合これらの測定値を総合した最良推定値xwavは
xwav=∑wixi/∑wi
となりこれが加重平均です。
この場合の議論は、「じゃあ加重平均とればいいじゃん」という話でもなくて、 phasonさんのコメント [srad.jp]で紹介されている文献を読むと、 二つの測定方法(ジェセフソン効果を利用して測定する方法、シリコン結晶から測定する方法)で未知の系統的な誤差(systematic error)がありそうで(~10-6)、 それが、キログラム原器を使った場合の相対誤差(キログラム原器の質量変動)~10-8に対して小さくないので、まだ使えないな、という話ですね。
個人的には量子電気力学に穴があるかもという話が面白そうですが、 きっと違うんだろうなあ。
Re:加重平均とればいい、というわけでもない (スコア:2, 参考になる)
元々のプランク定数もアボガドロ定数も加重平均で算出したものが使われてます。
原理的に同種の実験結果なので、各々が計測外の誤差を含むと考えて加重平均で単一値を決めるのは、理論的にも妥当なのです。
そうやって決めた単一値同士から算出した質量が一致しないので、どうしようかと悩んでいるのが現状ですね。
プランク定数とアボガドロ定数の双方が、十分に確定的な数値が出ているので、一方を確定値として採用すると、他方の測定方法が致命的に間違って居るということになってしまいます。
で、プランク定数もアボガドロ定数も質量の次元を1次の係数で持っているので、算出した質量の平均を取る場合には、単純な2数値の平均になります。
定数の算出時点で加重平均を使用しているので、重みを付けるとすると、両者の誤差に対して重みをつけることになりますが、現状で同等なので、極端な重みの違いは付かないです。
もし、プランク定数とアボガドロ定数の一方の計測方法に致命的な問題が在るなら、平均値の採用自体が、間違った数値を基準とする訳で、妥当な手段とは言い難いでしょうね。
一方で、未知の系統的誤差が在る場合、現状のプランク定数やアボガドロ定数の次元が質量を1次の係数として持つ事自体に疑問が生じる訳で、定数の次元から見直す必要が出てきます。
次元見直しで、両者が質量の非一次項を持つとすれば、二定数から計算した質量の単純平均を質量の定義とするのも、あながち間違いじゃないような気がします。
実際には、定数の次元を変更するのではなく、実験結果から定数を算出する計算式に修正が入り、定数値の変更が行われるでしょうから、将来的に両定数の正確な値が平均質量と一致する形で変更されて歩み寄ると仮定すれば、意外に妥当な方法でも在ります。
しかも、歩み寄る可能性が結構高そうです。
と云うのは、両者の計測装置が、割りと似た構造なので、同程度の誤差を逆方法に出している可能性がそれなりに高そうに見えるからです。
両定数の計測が同等の誤差を含んでいる事が前提の乱暴な論法なのは確かですが。
-- Buy It When You Found It --
Re:加重平均とればいい、というわけでもない (スコア:1)
どっちかが単位の定義に昇格し、もう片方は他の単位から定義される定数に降格しちゃうので。って、あ・・・間を取らなくてもそうなっちゃうのか。
一方が「ある値ばっちり誤差無し」とかっこよく定義され、もう一方は「定義された方から計算して導いてね。測定できた9桁まで一致するけど、10桁目以降は『むこうさんが誤差のない値になるよう都合の良い端数』をくっつけて」と従属的に定義されることになるので。
Re:加重平均とればいい、というわけでもない (スコア:3, 参考になる)
そりゃあ自分の測定した値が認められて「これが定義です」となればうれしいに決まっています。
先も挙げた藤井先生が書いた記事 [jikkyo.co.jp]も、非常に公平に書かれているのですが、図6をよく見ると産総研NIMJが測定したデータと、国際的に認められたデータ(CODATA値)では矛盾しています。ここでもやはり複数の実験の結果を加重平均を求めることによって、CODATA値を求めています。そこにNIMJが測定したデータも含まれているので、「我々の測定データは国際的に認められた」という主張なのですが、結果的には誤差の小さいアメリカNISTのデータに近い値になっています。上の加重平均を求める式を見てもらえばわかりますが、データの重みは誤差の2乗に反比例するので、誤差が大きいデータの重要度は低いのです。
具体的な値が書いてないのですが、エラーバーの大きさから推測するに、3倍の誤差がありそうなので、重みはNISTのデータに比べて1/9程度しかないでしょう。
これは測定した本人からすれば悔しくて夜も眠れないに決まっています。 「ぐぬぬ、、、俺たちが正しい測定をしたのに!!あいつらのQED理論が間違っている!!」 という叫びが行間から聞こえてきそうです。もちろんNISTからすれば、 「おめーがQED理解してないだけだろーが!!バーカバーカ!!悔しかったらもっと誤差小さい測定してみろや!!」ということになるでしょう。