アカウント名:
パスワード:
Xeon phi の次のやつを早く普通に買えるようにしてくれ.今度は OS を載せられるんだろ?
あと、半精度浮動小数SIMDもよろしく。
半… 16bit級?
こんな話があるんだってさ。
32bit以下のサイズのshort float型の追加の提案。 [blogspot.jp]> 16bit浮動小数点数は機械学習や画像処理の分野で広く使われるようになっている。>IEEE 754-2008では2進数16bitのフォーマットが定義されている。今のARMはネイティブにサポートしている。>IntelのCPUでもサポートする計画がある。GPUでは、OpenGLが16bit浮動小数点数を規定している。>OpenEXRではfloatの半分のサイズの浮動小数点数を組込型同様に扱えるライブラリがある。>nVidiaのCUDAでは16bit浮動小数点数行列があるが、C++規格に存在しないために独自規格になっている。>GCCはIEEEやARMのサポートのために__fp16型がある。LLVMにもhalf型がある。>>16bit浮動小数点数型は現実の需要があるので、C++標準は早急に取り入れるべきであるとする。
面白い。昔、単精度しか対応してなくて「使い物になるか!」って言われたGPGPUとかあったよね。今は逆に半精度寄越せって話になってるんだ。
NVIDIAでは、現行世代のMaxwellで既にFP16をサポートしてます。明確にDeep Learning向けをうたってます。
元ACが関連あるかわからないですがとある業界ではhalfがよく使われています。https://github.com/openexr/openexr/tree/master/IlmBase/Half [github.com]
ディープラーニング向けならむしろhalfの方が向いてるんでね?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
吾輩はリファレンスである。名前はまだ無い -- perlの中の人
それより (スコア:0)
Xeon phi の次のやつを早く普通に買えるようにしてくれ.今度は OS を載せられるんだろ?
Re: (スコア:0)
あと、半精度浮動小数SIMDもよろしく。
Re:それより (スコア:0)
半…
16bit級?
Re:それより (スコア:2, 興味深い)
こんな話があるんだってさ。
32bit以下のサイズのshort float型の追加の提案。 [blogspot.jp]
> 16bit浮動小数点数は機械学習や画像処理の分野で広く使われるようになっている。
>IEEE 754-2008では2進数16bitのフォーマットが定義されている。今のARMはネイティブにサポートしている。
>IntelのCPUでもサポートする計画がある。GPUでは、OpenGLが16bit浮動小数点数を規定している。
>OpenEXRではfloatの半分のサイズの浮動小数点数を組込型同様に扱えるライブラリがある。
>nVidiaのCUDAでは16bit浮動小数点数行列があるが、C++規格に存在しないために独自規格になっている。
>GCCはIEEEやARMのサポートのために__fp16型がある。LLVMにもhalf型がある。
>
>16bit浮動小数点数型は現実の需要があるので、C++標準は早急に取り入れるべきであるとする。
Re:それより (スコア:1)
面白い。
昔、単精度しか対応してなくて「使い物になるか!」って言われたGPGPUとかあったよね。今は逆に半精度寄越せって話になってるんだ。
Re: (スコア:0)
NVIDIAでは、現行世代のMaxwellで既にFP16をサポートしてます。
明確にDeep Learning向けをうたってます。
Re: (スコア:0)
元ACが関連あるかわからないですがとある業界ではhalfがよく使われています。
https://github.com/openexr/openexr/tree/master/IlmBase/Half [github.com]
Re: (スコア:0)
ディープラーニング向けならむしろhalfの方が向いてるんでね?