アカウント名:
パスワード:
ああ、ソフトウェアの設計にも安全係数の考え方ができたら、 どんなに楽なことか。
常識的には、ソフトウェアの品質は、 欠陥を見つけて修正して、それが枯れたことでしか測れません。 そもそも欠陥が出ないと品質が測れないということは、 仮に超優秀なプログラマがいて、本当に無欠陥のコードを書いたとしても、 それは品質測定ができず、受け入れ不可能ってことになります。 だから、テストで欠陥がある程度出てくれないと困るのは確かです。
でもね、欠陥の検出率を測定して、 ある一定以上の欠陥が出ていないとしたら、 まず、テスト担当側の方法を疑うのが普通であって、 開発会社にペナルティを科すってのは、全くデタラメなやり方ですね。
できたばかりのコードそのものの品質の高さを「客観的に示せ」というのは、 これも無理な話ですが、 欠陥修正が速いとか(=昼間のテストで出た問題は、夜中に小人さんが修理してくれていて 翌日すぐに再テストできるとか?)、本当に平均して欠陥が少ないとか、 いつもテスト期間の短縮に貢献しているのだというデータは 取ろうと思えば取れるはずなのですけどね。(たいへんだけど)
私も発注側の人間。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
吾輩はリファレンスである。名前はまだ無い -- perlの中の人
安全係数 (スコア:3, 興味深い)
ギリギリの安全係数で設計して、その代わりに検査で問題点を摘出するというアプローチしか取れません。
また、いったん飛び立ってしまえば着陸するまで修理は出来ないし、あちこち飛び回っているので、
どの時点で修理をするかを決め、必要機材を先回りして準備しておかなければいけないといった事情あり、
予測ということが重要でしょう。
これが地上の構築物であれば思いっきり安全係数を掛けて、検査を軽くするという
ライフサイクルコストを考えたアプローチも取れるのですが。
ソフトウェアのいいところはバグを潰しきれれば、その部分は安全であり、経年劣化や疲労などの心配をしないで済むということですね。
事前検査できる、個体差を考えなくてもいいというのも大きな特徴です。
Re:安全係数 (スコア:2, 興味深い)
裏を返せば恐ろしい事実が浮かび上がってきますね。
つまり、ソフトウェアでは、
上の人たちが話していたようなリアル物と違い、
「予測不可能な」壊れ方が大半を占める、ということになるので。
リアル物の疲労とかの壊れ方は、ある意味で予測可能なんですよね。
これくらいの力がかかってるから確率的にこれくらいの時期に駄目になるだろうとか。
ところがソフトはその発想が通用しない。
時間によって壊れるのではない。
実は最初から壊れてるだけで、それが発覚
Re:安全係数 (スコア:0)
> #バグが多いならまだしも、少な「すぎ」てもペナルティを科されたんだよね…
> #もしウチの社員がテメーラより3倍優秀だったらバグも1/3になることは全然おかしくないだろうに…
多分そこの中の人の上の人です。
コードの品質が高いことを客観的に示せば受け入れてもらえたはずですよ。
データに基づいて説得できなかった時点で負けですね。
せっかくコーダは優秀なようなのに、マネージャがゴミじゃダメだよな。
Re:安全係数 (スコア:1)
ああ、ソフトウェアの設計にも安全係数の考え方ができたら、 どんなに楽なことか。
常識的には、ソフトウェアの品質は、 欠陥を見つけて修正して、それが枯れたことでしか測れません。 そもそも欠陥が出ないと品質が測れないということは、 仮に超優秀なプログラマがいて、本当に無欠陥のコードを書いたとしても、 それは品質測定ができず、受け入れ不可能ってことになります。 だから、テストで欠陥がある程度出てくれないと困るのは確かです。
でもね、欠陥の検出率を測定して、 ある一定以上の欠陥が出ていないとしたら、 まず、テスト担当側の方法を疑うのが普通であって、 開発会社にペナルティを科すってのは、全くデタラメなやり方ですね。
できたばかりのコードそのものの品質の高さを「客観的に示せ」というのは、 これも無理な話ですが、 欠陥修正が速いとか(=昼間のテストで出た問題は、夜中に小人さんが修理してくれていて 翌日すぐに再テストできるとか?)、本当に平均して欠陥が少ないとか、 いつもテスト期間の短縮に貢献しているのだというデータは 取ろうと思えば取れるはずなのですけどね。(たいへんだけど)
私も発注側の人間。
Re:安全係数 (スコア:0)
え?「テスト担当者」も弊社ですが何か?
変だって?「普通」でないって?
でも、こっちでテストしろと、あちら様に命じられたんですもの。普通という言葉すら歪曲するのが大企業様の恐ろしいところ。
(あれ?そういや「テストの方法」を命じられた記憶が無いです。「いかにテストするか」を縛ってないくせにバグ率(行数あたりのバグ件数)は縛り、しかも実はコッチの言い値ですか?なん
Re:安全係数 (スコア:1, 参考になる)
まぁ、相手は大会社様ですからね、その大会社様の会社全体で見るとサンプル数も多いんですわ。
するってーと、案外、それなりに平均的な値とか傾向っつーのも出てくるんですよ、特に案件の規模が大きくなってくるとね。
傾向の出方も、バグ数だけの話じゃないんですよ、バグの種類とか、各工程での出方とかね。
この辺をきちんと見ていくと、これ数字捏造でしょ?とか、テスト本当にやったの?とか、テストの力入れる部分違うんじゃない?とか、そういうのも大体見えてくるんです。
SI工程なのに発見すべき工程がUTばかりだとテスト不十分だったのかなーとかね。
捏造なんかだとSIで発見されたバグがUTでなおってたりなんてのが大量にあったりしますね。
ま、こんな整合性を整えてまで捏造するならきちんとテストする方が楽ですし、本来捏造なんてやる気出ませんし、そもそも捏造が必要な事態に陥るほどの状況ですからね、こういう部分も雑になりますわな。
あと、大会社様の中でも、受け入れは別部門だったりすることがあって、そういう場合だと、担当部門の方も、その別部門の人を説得せにゃならんのですわ。
受け入れが別部門じゃなくとも、大会社様のお客様がITにそれなりに詳しかったりすると、やっぱり説得が必要ですし。
なので、その説得材料として、「まずは俺を納得させろ」なんつーことはよくあります。
そういうわけで、アドバイス。
テストをやる前に、テストのやり方については充分に大会社様と話をしておきましょう。
テストの目的とか、項目の抽出の仕方とか、目標のバグ件数とか、記録すべき事項とか。
で、記録すべき事項については、確実に周知・徹底して、きちんと残しましょう。
場合によっては、大会社様が残さなくていいといった内容についても記録に残すべきです、もちろんコストと相談してですが。
こういったことをしっかりやっておけば、話し合いで何とかなることが結構あります。
もちろん、プロジェクトの状況にもよりますよ、受け入れ側視点で見ても、もっと早く相談してよって言いたくなるケースもあります。
Re:安全係数 (スコア:1, 参考になる)
テスト目的やテスト観点、試験項目はきちんとレビューしてもらおう。→やるべき試験についての事前ネゴ
テスト期間や項目数にもよるが、最低でも週1、可能なら毎日、試験消化状況やバグの発生状況について話す場を設けてもらおう。→状況把握してもらおう&捏造してないことを知ってもらおう
政治的・コスト的に可能なら、担当部署の品質管理チームに数人混ぜてもらおう。→相手がどういう考えでいるのかを知ろう&手法を学び取ろう
同じく政治的・コスト的に可能なら、自社内部にも品質管理チームを持とう。担当部署の品質管理チーム分隊という感じでもOK。→大会社様と同じ意識を持とう&内部の記録ミスなんかは随時正そう